일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 크롤링
- stopwords
- PYTHON
- selenium
- IOPub
- EarlyStopping
- pos_tag
- semi-project
- aof
- 인공지능
- Logistic linear
- beautifulsoup
- 이것이 코딩 테스트다
- 원소주
- Roc curve
- auc
- Trouble shooting
- SMTP
- ML
- json
- Django
- 잡담
- pandas
- 그리디
- find_all()
- 파일입출력
- 트러블슈팅
- 머신러닝
- category_encoders
- AI
- Today
- Total
목록selenium (2)
개발 블로그
엑셀파일의 문자열 데이터를 가공한 후 selenium을 활용하여 구글번역기에 단어를 입력하고 번역한 결과를 가져와 저장하는 프로그램입니다. (엑셀파일은 [Python] 웹 스크래핑 (1) 게시물에서 생성한 엑셀파일을 사용하였습니다.) 목차> 더보기 목차 00 import from webdriver_manager.chrome import ChromeDriverManager from selenium.webdriver.chrome.service import Service from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.common.keys import Keys from bs4 imp..
CODELION [심화]같이 푸는 Python 강의중에서 크롤링 강의를 듣고 응용해보기 위해서 네이버 스포츠 해외축구에서 EPL순위를 크롤링하는 프로그램을 만들어 봤습니다. 네이버 스포츠 스포츠의 시작과 끝! sports.news.naver.com 목차> 더보기 목차 01 BeautifulSoup를 활용한 크롤링 시도 우선 배운대로 requests와 BeautifulSoup를 사용하려고 했습니다. 맨체스터 시티 FC라는 이름을 가져오기 위해 F12를 눌러 크롬개발자도구로 해당 부분의 태그를 찾았습니다. (참고 : 크롬개발자도구 활용법) 태그는 span, 클래스는 name을 전달인자로 하여 findAll('span','name')함수를 사용하였습니다. import requests from bs4 impor..