개발차

    [NLP] Day 16 - Index

    IndexIn [1]:from konlpy.tag import Kkma from nltk.tokenize import word_tokenize sentence = '오늘 날씨는 어제 날씨보다 안좋은거 같아요' In [2]:print(Kkma().pos(sentence)) [('오늘', 'NNG'), ('날씨', 'NNG'), ('는', 'JX'), ('어제', 'NNG'), ('날씨', 'NNG'), ('보다', 'JKM'), ('안', 'MAG'), ('좋', 'VA'), ('은', 'ETD'), ('거', 'NNB'), ('같', 'VA'), ('아요', 'EFN')] In [3]:for token in word_tokenize(sentence): # == sentence.split(): print(..

    [NLP] Day 15 - Lexicon

    Lexicon문서표현, Lexicon dictonary의 token이 해당문서에 있으면 1, 없으면 0으로 표현된 리스트In [1]:from konlpy.corpus import kobill def getLexicon(): lexicon = list() for docName in kobill.fileids(): document = kobill.open(docName).read() for token in document.split(): if token not in lexicon: lexicon.append(token) return lexicon In [2]:%timeit getLexicon() 108 ms ± 1.4 ms per loop (mean ± std. dev. of 7 runs, 10 loops ..

    [KOCW 선형대수] 21강. 연립방정식과 행렬

    제 21강. 연립방정식과 행렬Relation between eigenvalues and special solutions ( 𝑒𝐴𝑡 of differential equation) 𝐝𝐮(𝐭)𝐝𝐭=[𝑎𝑐𝑏𝑑][𝑢(𝑡)] [𝑥′(𝑡)𝑦′(𝑡)]={𝑎𝑥(𝑡)+𝑏𝑦(𝑡)𝑐𝑥(𝑡)+𝑑𝑦(𝑡) 먼저 𝑥(𝑡)를 구해보자 𝑥(𝑡)=1𝑐(𝑦′(𝑡)−𝑑𝑦(𝑡)) 이다. 이를 이용해서 𝑥′(𝑡)를 구해보면 서로 다른 두 식이 나온다. 이를 같다고 두고 전개하면 다음과 같다. 1𝑐(𝑦″(𝑡)−𝑑𝑦′(𝑡)=𝑎𝑐(𝑦′(𝑡)−𝑑𝑦(𝑡))+𝑏𝑦(𝑡)이를 잘 정리하면 다음과 같다. 𝑦″(𝑡)−(𝑎+𝑑)𝑦′(𝑡)+(𝑎𝑑−𝑏𝑐)𝑦(𝑡)=0 이는 Characteristic equation으로, 𝜆2−(𝑎+𝑑)𝜆+(𝑎𝑑−𝑏𝑐)=0으로 나타낼 수..

    [NLP] Day 14 - Phrase

    PhraseIn [1]:sentence = "The little bear saw the fat trout in the book" In [100]:import nltk from nltk.tokenize import word_tokenize from nltk import pos_tag In [6]:tagged = pos_tag(word_tokenize(sentence)) In [7]:tagged # 리스트 속 튜플 Out[7]:[('The', 'DT'), ('little', 'JJ'), ('bear', 'NN'), ('saw', 'VBD'), ('the', 'DT'), ('fat', 'JJ'), ('trout', 'NN'), ('in', 'IN'), ('the', 'DT'), ('book', 'NN')]In..

    [KOCW 선형대수] 20강. 동질최소제곱법의 해와 마르코프 행렬

    r {width:90% !important;}"))제 20강. 동질최소제곱법의 해와 마르코프 행렬Reminding Only if 𝜆1≠𝜆1≠⋯≠𝜆𝑛 𝐴𝑘=𝑆Λ𝑘𝑆−1𝑢0 ⎡⎣⎢⎢ 𝑒1𝑒2⋯𝑒𝑛⎤⎦⎥⎥⎡⎣⎢⎢⎢⎢⎢⎢⎢⎢𝜆𝑘1 𝜆𝑘2𝜆𝑘3⋱𝜆𝑘𝑛⎤⎦⎥⎥⎥⎥⎥⎥⎥⎥⎡⎣⎢⎢⎢𝐶1⋮𝐶𝑛⎤⎦⎥⎥⎥ =𝐶1𝜆𝑘1𝑥1+𝐶2𝜆𝑘2𝑥2+⋯+𝐶𝑛𝜆𝑘𝑛𝑥𝑛 If there are some multiple roots in the characteristic Equation ! 아닐 경우 "중분"이 생김𝐶1(𝜆)𝑛+𝐶1𝑛(𝜆)𝑛 𝐶1(𝜆)𝑛+𝐶1𝑛(𝜆)𝑛+𝐶1𝑛2(𝜆)𝑛 Markov Matrix상태가 변화하는 것을 의미한다. 이는State transition in Probability 라고 한다.𝑈𝑘+1=𝐴𝑈𝑘 𝑈𝑘=𝐴𝑢0 𝜆=1,..

    [핸즈온 머신러닝] 제 7장 연습문제 풀이

    Exercise Part. 6Ensemble_learning and random forests1. 정확히 같은 훈련 데이터로 다섯 개의 다른 모델을 훈련시켜서 모두 95%의 정확도를 얻었다면 이 모델들을 연결하여 더 좋은 결과를 얻을 수 있을까요? 가능하다면 어떻게 해야 할 까요? 그렇지 않다면 왜일까요?앙상블을 만들어 더 나은 결과를 기대할 수 있다. 모델이 서로 다르다면 더 좋다. 그리고 다른 훈련 샘플에서 훈련되었다면 더더욱 좋다. ( 배깅 / 페이스팅의 핵심 ). 그렇지 않아도 모델이 서로 많이 다르면 여전히 좋은 결과를 냄!2. 직접 투표와 간접 투표 분류기 사이의 차이점은 무엇일까요?직접 투표 분류기는 횟수를 중요시하여, 가장 많은 투표를 얻은 클래스를 선택. (다수결)간접 투표 분류기는 각 ..