logo

Pasirinkto tinklalapio turinio skaitymas naudojant Python Web Scraping

Būtina sąlyga: Failų atsisiuntimas Python Žiniatinklio grandymas naudojant „BeautifulSoup“. Visi žinome, kad „Python“ yra labai paprasta programavimo kalba, tačiau ją šaunu daro tai, kad jai sukurta daugybė atvirojo kodo bibliotekos. Užklausos yra viena iš plačiausiai naudojamų bibliotekų. Tai leidžia mums atidaryti bet kurią HTTP/HTTPS svetainę ir atlikti bet kokius dalykus, kuriuos įprastai darome žiniatinklyje, taip pat galime išsaugoti seansus, t. y. slapukus. Visi žinome, kad tinklalapis yra tik HTML kodo dalis, kurią žiniatinklio serveris siunčia į mūsų naršyklę, kuri savo ruožtu paverčiama nuostabiu puslapiu. Dabar mums reikia mechanizmo, kaip gauti HTML šaltinio kodą, ty rasti tam tikras žymas su paketu, pavadintu BeautifulSoup. Montavimas:
pip3 install requests 
pip3 install beautifulsoup4 

Imame pavyzdį skaitydami naujienų svetainę Hindustano laikai

Kodą galima suskirstyti į tris dalis.
  • Tinklalapio užklausa
  • Etikečių tikrinimas
  • Išspausdinkite atitinkamą turinį
Veiksmai:
    Tinklalapio užklausa:Pirmiausia dešiniuoju pelės mygtuku spustelėkite naujienų tekstą, kad pamatytumėte šaltinio kodą Pasirinkto tinklalapio turinio skaitymas naudojant Python Web Scraping' title= Žymų patikrinimas:Turime išsiaiškinti, kurioje šaltinio kodo dalyje yra naujienų skyrius, kurį norime išbraukti. Tai yra pagal uli.e netvarkingas sąrašas "searchNews", kuriame yra naujienų skyrius. Pasirinkto tinklalapio turinio skaitymas naudojant Python Web Scraping' title= Pastaba Naujienų tekstas yra inkaro žymos teksto dalyje. Atidus stebėjimas leidžia manyti, kad visos naujienos yra netvarkingos žymos li list žymose. Pasirinkto tinklalapio turinio skaitymas naudojant Python Web Scraping' title= Atspausdinkite atitinkamą turinį: The content is printed with the help of code given below. Python
    import requests from bs4 import BeautifulSoup def news(): # the target we want to open  url='http://www.hindustantimes.com/top-news' #open with GET method resp=requests.get(url) #http_respone 200 means OK status if resp.status_code==200: print('Successfully opened the web page') print('The news are as follow :-n') # we need a parserPython built-in HTML parser is enough . soup=BeautifulSoup(resp.text'html.parser') # l is the list which contains all the text i.e news  l=soup.find('ul'{'class':'searchNews'}) #now we want to print only the text part of the anchor. #find all the elements of a i.e anchor for i in l.findAll('a'): print(i.text) else: print('Error') news() 

    Išvestis

    Successfully opened the web page The news are as follow :- Govt extends toll tax suspension use of old notes for utility bills extended till Nov 14 Modi Abe seal historic civil nuclear pact: What it means for India Rahul queues up at bank says it is to show solidarity with common man IS kills over 60 in Mosul victims dressed in orange and marked 'traitors' Rock On 2 review: Farhan Akhtar Arjun Rampal's band hasn't lost its magic Rumours of shortage in salt supply spark panic among consumers in UP Worrying truth: India ranks first in pneumonia diarrhoea deaths among kids To hell with romance here's why being single is the coolest way to be India vs England: Cheteshwar Pujara Murali Vijay make merry with tons in Rajkot Akshay-Bhumi SRK-Alia Ajay-Parineeti: Age difference doesn't matter anymore Currency ban: Only one-third have bank access; NE backward regions worst hit Nepal's central bank halts transactions with Rs 500 Rs 1000 Indian notes Political upheaval in Punjab after SC tells it to share Sutlej water Let's not kid ourselves with Trump what we have seen is what we will get Want to colour your hair? Try rose gold the hottest hair trend this winter 

Nuorodos



Sukurti viktoriną