일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 후위 표기법
- 보이어무어
- python
- 최소공배수
- 문자열
- Stack
- 완전탐색
- 점프와 순간이동
- 영문자 확인
- dfs
- 2017 카카오 코드
- 조합
- Dynamic Programming
- 반복문
- 완전 탐색
- 알고리즘
- 메뉴리뉴얼
- fragment identifier
- Java
- 규칙찾기
- 순열
- 어려웠던 문제
- 에라토스테네스의 체
- HashSet
- 프로그래머스
- pandas
- 튜플
- 동적계획법
- HashMap
- 쿼드압축 후 개수세기
- Today
- Total
목록데이터&인공지능/자연어처리 (15)
csmoon1010의 SW 블로그

09. 순환 신경망(Recurrent Neural Network, RNN) wikidocs.net/book/2155 위키독스 온라인 책을 제작 공유하는 플랫폼 서비스 wikidocs.net - 다양한 길이의 입력 시퀀스를 처리하기 위해 - ex> RNN, LSTM 1) 순환 신경망(Recurrent Neural Network, RNN) : 시퀀스(Sequence) 모델(입출력을 (단어) 시퀀스 단위로 처리) - LSTM, GRU : 근본적으론 RNN에 속함. 1. 순환 신경망(Recurrent Neural Network, RNN) - 피드 포워드 신경망(Feed Forward Neural Network) : 입력층에서 출력층 방향으로만 향함 - RNN : 은닉층 노드 - 활성화 함수를 통해 나온 결과값 ..

08.딥러닝(Deep Learning) 개요 wikidocs.net/book/2155 위키독스 온라인 책을 제작 공유하는 플랫폼 서비스 wikidocs.net 6) 케라스(Keras) 훑어보기 - 손쉽게 딥 러닝을 구현할 수 있도록 도와주는 상위 레벨의 인터페이스 - 참고 : https://keras.io/ 1. 전처리(Preprocessing) - Tokenizer() : 토큰화와 정수인코딩을 위해 사용 - pad_sequence() : 길이가 다른 샘플들의 길이를 동일하게 맞추기(padding) 지정값보다 김 --> 자르기 / 지정값보다 짧음 --> 0으로 채우기 **padding : 'pre' - 앞에서 0 채우기, 'post' - 뒤에서 0채우기 2. 워드 임베딩(Word Embedding) : ..

08. 딥 러닝(Deep Learning) 개요 wikidocs.net/book/2155 위키독스 온라인 책을 제작 공유하는 플랫폼 서비스 wikidocs.net - 기본 구조 : 인공 신경망(Artificial Neural Network) - 초기 신경망(퍼셉트론), 피드 포워드 신경망 언어 모델, 기본적인 케라스 사용법 1) 퍼셉트론(Perceptron) - 딥 러닝 : 인공 신경망을 복잡하게 쌓아 올린 방법 - 퍼셉트론 : 초기 인공 신경망 1. 퍼셉트론(Perceptron) - 다수의 입력으로부터 하나의 결과를 내보냄 - 뉴런과 유사 : 가지돌기(신호) ----(일정치 이상의 크기라면)"신호"----> 축삭돌기 - x : 입력값, W : 가중치(축삭돌기 역할), y : 출력값(인공 뉴런) - 가중..

07. 머신 러닝(Machine Learning) wikidocs.net/book/2155 위키독스 온라인 책을 제작 공유하는 플랫폼 서비스 wikidocs.net 5) 다중 입력에 대한 실습 - 독립 변수 x가 2개 이상인 선형 회귀와 로지스틱 회귀 - 비용함수, 옵티마이저 이용 원리는 동일 1. 다중 선형 회귀 : 독립 변수가 2개 이상 = 입력 벡터의 차원이 2 이상 ex> 중간고사, 기말고사, 추가 점수 --> 최종 점수 - 가설 : - 코드 : 다중 회귀 모델 생성(linear) 훈련 데이터, 테스트 데이터로 예측작업 2. 다중 로지스틱 회귀 ex> 꽃받침(Sepal), 꽃잎(Petal) 길이 --> 꽃 종(Species) _ A/B - 가설 : - 코드 : 다중회귀모델(logistic) - 훈..

07. 머신러닝(Machine Learning) 개요 - AI = 머신 러닝 + 딥 러닝(머신 러닝의 한 갈래) - 규칙을 찾아 프로그래밍 --> 스스로 규칙을 찾아감 - 활용분야 : 이미지 인식, 영상 처리, 알파고, 자연어 처리 - cf> 딥러닝 : 통계 기반보다 더 높은 성능을 보임 wikidocs.net/book/2155 위키독스 온라인 책을 제작 공유하는 플랫폼 서비스 wikidocs.net 1) 머신 러닝이란(What is Machine Learning?) 1. 머신 러닝(Machine Learning)이 아닌 접근 방법의 한계 ex> 이미지 인식 사진 : 보는 각도, 조명, 타겟의 변형에 따라서 천차만별 --> "공통의 명확한 특징"을 잡아내기 어렵 --> 기존과 같은 명확한 알고리즘이 존재..

06. 토픽 모델링(Topic Modeling) - 토픽 모델링 : 기계학습 및 자연어 처리 분야에서 토픽(문서 집합의 추상적인 주제)를 발견하기 위한 통계적 모델 중 하나 --> 텍스트 마이닝 기법(텍스트 본문의 숨겨진 의미 구조 발견) wikidocs.net/book/2155 위키독스 온라인 책을 제작 공유하는 플랫폼 서비스 wikidocs.net 1) 잠재 의미 분석(Latent Semantic Analysis, LSA) - LSA : 토픽 모델링 알고리즘인 LDA에 아이디어를 제공한 알고리즘 - DTM, TF-IDF의 단점 : 빈도 수만을 이용한 수치화 방법 --> 단어의 의미(토픽)는 고려하지 않음. - 선형대수학의 특이값 분해(Singular Value Decomposition, SVD)가 필..

05. 문서 유사도(Document Similarity) - 기준 : 문서들 간 동일한 단어 / 비슷한 단어가 얼마나 공통적으로 많이 사용? --> 단어의 수치화 방법(DTM, Word2Vec), 단어들 간 차이의 계산 방법(유클리드 거리, 코사인 유사도) wikidocs.net/book/2155 위키독스 온라인 책을 제작 공유하는 플랫폼 서비스 wikidocs.net 1) 코사인 유사도(Cosine Similarity) - BoW, DTM, TF-IDF, 워드투벡터로 단어 수치화 --> 코사인 유사도로 문서의 유사도 구하기! 1. 코사인 유사도(Cosine Similarity) - 코사인 유사도 : 두 벡터 간의 코사인 각도를 이용하여 두 벡터의 유사도를 구함. = 벡터가 가리키는 방향의 유사도 - 범..

04. 카운트 기반의 단어 표현(Count based word Representation) - 문자를 숫자로 수치화 할 필요가 있음 --> ch4, 6, 10 wikidocs.net/book/2155 위키독스 온라인 책을 제작 공유하는 플랫폼 서비스 wikidocs.net 1) 다양한 단어의 표현 방법 카운트 기반을 포함한 다양한 단어의 표현 방법에 대해서 알아본다. 1. 단어의 표현 방법 - 국소 표현(Local Representation) = 이산 표현(Discrete Representation) : 해당 단어 그 자체만 보고 특정값을 맵핑하여 단어를 표현하는 방법 ex) puppy - 1, cute - 2, lovely - 3 - 분산 표현(Distributed Representation) = 연속..