| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 | 31 |
- 코사인 유사도
- LDA
- 데이터리안
- 구글 스토어 리뷰
- 문맥을 반영한 토픽모델링
- 포아송분포
- CTM
- 데이터넥스트레벨챌린지
- SBERT
- Tableu
- 블루 아카이브
- 붕괴 스타레일
- 원신
- Optimizer
- NLP
- BERTopic
- 피파온라인 API
- 블루아카이브 토픽모델링
- 클래스 분류
- Roberta
- 개체명 인식
- 토픽 모델링
- geocoding
- 조축회
- 데벨챌
- 자연어 모델
- 옵티마이저
- 트위치
- 다항분포
- KeyBert
- Today
- Total
목록Python (13)
분석하고싶은코코
구글 API 활용해서 우리나라 주소, 위도, 경도를 불러오면 에러는 나지 않지만 이상하게 불러오는 경우가 생각보다 많았다. 만능이라 생각했지만 정확하지 못해서 찾아본 결과 Ncloud를 통해서 하면 별도 비용없이 기본 제공량으로 여유있게 Geocoding이 가능하다는 것을 알게 됨. 우리나라 지리적 정보를 가져올때는 네이버나 카카오 API를 활용하는게 맞는듯... #네이버 API import urllib.request from urllib import parse import json #이 부분은 Ncolud에서 발급 가능 api_key = '본인 API키 입력' id = '본인 ID 입력' # 원하는 주소 def naverGeo(target): # 주소를 변환 URL에서 활용을 위해 target_u = ..
비트코인 정보를 제공해주는 페이지에서 크롤링하여 예측해보는 과정을 연습했다. 연습하는 과정이기 때문에 예제에서 다뤘던 페이지가 아닌 업비트에서 정보를 가져오는 과정으로 바꿔서 진행했다. HTML 삽입 미리보기할 수 없는 소스 연습 과정을 통해서 새롭게 알게 된 내용. - 크롤링을 할 때 정적인 페이지는 BeautifulSoup만으로 가능하지만 동적인 페에지를 클롤링 하려면 Selenium을 사용해서 접근하여 사용해야한다. - Selenium의 find_element 사용법이 조금 바뀐 것 같다. 방식은 그전과 동일한 것 같다.
HTML 삽입 미리보기할 수 없는 소스
Python 중급 내용 정리. JupyterNotebook 사용. HTML 삽입 미리보기할 수 없는 소스