일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 시각화
- httr
- 서평
- hadoop
- kaggle
- kt aivle school
- SQLD
- 한국전자통신연구원
- 딥러닝
- ML
- ggplot2
- 하둡
- Eda
- python
- 기계학습
- 빅분기
- 빅데이터분석기사
- dx
- 소셜네트워크분석
- 가나다영
- r
- arima
- 에이블러
- 시계열
- 에이블스쿨
- 머신러닝
- 에트리 인턴
- 지도학습
- KT 에이블스쿨
- 하계인턴
- cnn
- 프로그래머스
- 한국전자통신연구원 인턴
- ETRI
- matplot
- Ai
- 웹크롤링
- SQL
- KT AIVLE
- 다변량분석
Archives
- Today
- Total
소품집
[python] bs4 패키지를 이용해 네이버 날씨 crawling 연습해보기 본문
728x90
# 웹 크롤링 프로젝트
# https://sodayeong.tistory.com
import datetime
from bs4 import BeautifulSoup
import urllib.request
now = datetime.datetime.now()
nowDate = now.strftime('%Y년 %m월 %d일 %H시 %M분 입니다.')
print("\n ※ Python Webcrawling Project 1 ※ \n ")
print(' 환영합니다, ' + nowDate)
print(' 오늘의 주요 정보를 요약해 드리겠습니다.\n')
# 오늘의 날씨
print(' >> # 오늘의 #날씨 #요약 \n')
# page1. in seoul
webpage = urllib.request.urlopen('https://search.naver.com/search.naver?sm=top_hty&fbm=0&ie=utf8&query=%EC%84%9C%EC%9A%B8%EB%82%A0%EC%94%A8')
soup = BeautifulSoup(webpage, 'html.parser')
temps = soup.find('span',"todaytemp")
cast = soup.find('p',"cast_txt")
print('--> 서울 날씨 : ' , temps.get_text() , '℃' , cast.get_text())
# page2. in gongju
webpage = urllib.request.urlopen('https://search.naver.com/search.naver?sm=tab_hty.top&where=nexearch&query=%EA%B3%B5%EC%A3%BC+%EB%82%A0%EC%94%A8+&oquery=%EC%84%9C%EC%9A%B8%EB%82%A0%EC%94%A8&tqi=hbqVJsp0J1ZsslfrR8ossssss4K-373030')
soup = BeautifulSoup(webpage, 'html.parser')
temps = soup.find('span', 'todaytemp')
cast = soup.find('p', 'cast_txt')
print('--> 공주 날씨 : ' , temps.get_text() , '℃' , cast.get_text())
R이랑 크롤링하는 게 비슷해서 쉽게 이해할 수 있었다.
html 구조만 다시 공부하면 수월할 것 같다.
동적 웹 페이지 크롤링해서 데이터 베이스로 구조화 하는 방법도 공부하려고 해본다.
위의 포스팅을 보고 연습해보았습니다.
728x90
'Web crawling' 카테고리의 다른 글
Mac OS 터미널 실행시 (base) user로 뜰 때/가상환경 사용법 (2) | 2021.05.03 |
---|---|
ModuleNotFoundError: No module named 'MySQLdb' / 왜 안될까 왜 안될까 (0) | 2021.04.08 |
[python] Session을 활용하여 크롤링 하기 (0) | 2020.09.02 |
소셜네트워크 분석 (0) | 2020.06.19 |
소셜네트워크 정의 및 igraph 패키지 사용하기 (2) | 2020.06.16 |
Comments