일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 비밀지도
- Repositories
- 숫자형
- FinanceDataReader
- 한국주식
- 구글폰트
- seaborn
- 네이버금융
- numpy
- 깃허브블로그
- github blog
- GIT
- 서울정보소통광장
- 깊은복사
- Github
- hackerrank
- 프로그래머스
- PANDAS
- 영어한글폰트차이
- 카카오채용코테'
- dataframe
- 120주요질문
- 수치형변수
- SettingWithCopyWarning
- Requests
- googlefont
- 데이터수집
- Beautifulsoup
- 해커랭크
- Python
- Today
- Total
목록Requests (2)
데린이 재영

목표 설정 - 멋쟁이사자 AI 스쿨 11, 12일차(221004, 221005) 학습 내용 정리하기 - 서울정보소통광장 ▶ 시민소통 ▶ 120 주요 민원 수집하기 데이터 수집 과정 1. 라이브러리 로드 # 파이썬에서 사용할 수 있는 엑셀과 유사한 데이터분석 도구 import pandas as pd import numpy as np # 매우 작은 브라우저로 웹사이트의 내용과 정보를 불러옴 import requests # request로 가져온 웹사이트의 html 태그를 찾기위해 사용 from bs4 import BeautifulSoup as bs # 간격을 두고 가져오기 위해 사용 import time # 진행 상황 확인하기 from tqdm.notebook import tqdm 2. url 가져오기 # ..

목표 설정 - 멋쟁이사자 AI 스쿨 8일차(220928) 학습 내용 정리하기 - Pandas, Requests, BeautifulSoup 라이브러리를 이용해서 네이버 금융 개별종식 데이터 수집하기 배운 내용 정리 1) 사용한 라이브러리 목록 # 테이블형태의 데이터 불러올 때 pd.read_html 사용 import pandas as pd # pandas 짝꿍 import numpy as np # HTTP 요청 import requests # table 태그 찾을 때 사용 from bs4 import BeautifulSoup as bs # time.sleep()으로 시간간격 두고 데이터 수집할 때 사용 - 서버 부담이 되기 때문 import time # 실시간 시간정보 가져올 수 있음 from dateti..