반응형
Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | |||||
| 3 | 4 | 5 | 6 | 7 | 8 | 9 |
| 10 | 11 | 12 | 13 | 14 | 15 | 16 |
| 17 | 18 | 19 | 20 | 21 | 22 | 23 |
| 24 | 25 | 26 | 27 | 28 | 29 | 30 |
| 31 |
Tags
- 피파온라인 API
- 블루 아카이브
- 개체명 인식
- KeyBert
- Tableu
- 데이터넥스트레벨챌린지
- 옵티마이저
- 데이터리안
- 자연어 모델
- 블루아카이브 토픽모델링
- 구글 스토어 리뷰
- 토픽 모델링
- 다항분포
- LDA
- SBERT
- BERTopic
- 붕괴 스타레일
- 포아송분포
- 클래스 분류
- 데벨챌
- Optimizer
- 원신
- 트위치
- NLP
- 코사인 유사도
- Roberta
- 조축회
- CTM
- 문맥을 반영한 토픽모델링
- geocoding
Archives
- Today
- Total
목록SBERT (1)
분석하고싶은코코
SBERT는 BERT의 문장 임베딩 성능을 우수하게 개선 시킨 파인튜닝 모델입니다. 문장 임베딩은 문장을 벡터 공간에 배치하여 문장 간 비교, 클러스터링과 같은 다양한 분석에 이용할 수 있는 장점이 있습니다. SBERT에 대해서 이해하기 위해서 풀링(pooling)에 대해서 먼저 알아보고 BERT의 문장 임베딩을 알아보고 SBERT에 대해서 알아보는 순서로 SBERT를 이해하는 과정을 밟아가 보겠습니다. 1) 풀링(Pooling) 풀링 작업은 피처멥을 대표하는 피처멥을 만드는 작업이라고 생각하시면 됩니다. 이게 무슨소리냐? 이해를 돕기위해 예를 들어보겠습니다. A고등학교에 3학년이 존재합니다. 3학년에는 각 학급이 있겠죠? 학급은 10개의 반이 있다고 해보겠습니다. 그렇다면 10개 반에는 각각의 학생들이..
머신러닝&딥러닝/NLP
2023. 10. 5. 21:40