Torna indietro   Hardware Upgrade Forum > Software > Programmazione

Recensione vivo X300 Pro: è ancora lui il re della fotografia mobile, peccato per la batteria
Recensione vivo X300 Pro: è ancora lui il re della fotografia mobile, peccato per la batteria
vivo X300 Pro rappresenta un'evoluzione misurata della serie fotografica del produttore cinese, con un sistema di fotocamere migliorato, chipset Dimensity 9500 di ultima generazione e l'arrivo dell'interfaccia OriginOS 6 anche sui modelli internazionali. La scelta di limitare la batteria a 5.440mAh nel mercato europeo, rispetto ai 6.510mAh disponibili altrove, fa storcere un po' il naso
Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
Lenovo Legion Go 2 è la nuova handheld PC gaming con processore AMD Ryzen Z2 Extreme (8 core Zen 5/5c, GPU RDNA 3.5 16 CU) e schermo OLED 8,8" 1920x1200 144Hz. È dotata anche di controller rimovibili TrueStrike con joystick Hall effect e una batteria da 74Wh. Rispetto al dispositivo che l'ha preceduta, migliora ergonomia e prestazioni a basse risoluzioni, ma pesa 920g e costa 1.299€ nella configurazione con 32GB RAM/1TB SSD e Z2 Extreme
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti
A re:Invent 2025, AWS mostra un’evoluzione profonda della propria strategia: l’IA diventa una piattaforma di servizi sempre più pronta all’uso, con agenti e modelli preconfigurati che accelerano lo sviluppo, mentre il cloud resta la base imprescindibile per governare dati, complessità e lock-in in uno scenario sempre più orientato all’hybrid cloud
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 22-08-2019, 09:07   #1
$te
Senior Member
 
L'Avatar di $te
 
Iscritto dal: Aug 2006
Messaggi: 1262
[Python] Script per scaricare solo testo di un sito

Buongiorno,

pensavo di aver vita facile su internet: ho cercato e ricercato ma non trovo nulla che mi aiuta.

Avrei bisogno qualcosa di "semplice": uno script (pensavo in python, ma sono aperto ad altri linguaggi) per "scaricare" il testo di un sito web.

Quindi, a partire da una lista di siti web (anche 100 o più), per ogni sito devo avere (il top sarebbe su excel) tutto il testo contenuto nelle varie pagine (quindi non solo nella home).

Dopo, sarò io, penso in excel, a fare le mie analisi su questo testo.

Ho visto vari esempi con scrapy (Python), ma non riesco a fare quello che vorrei.

Avete dei consigli?

Grazie!
$te è offline   Rispondi citando il messaggio o parte di esso
Old 22-08-2019, 10:08   #2
Kaya
Senior Member
 
Iscritto dal: Apr 2005
Messaggi: 3276
non ho tempo per approfondire ma io farei uso di curl e poi un parser poi del file scaricato

quindi in step
prepari una lista di siti web
for line in lista
curl $line output $nomesito
parserizza il file di output per trovare i tag <a href>
ripeti quanto sopra per una seconda volta (altirmenti rischi di andare all'infinto)
end
tutti i file che hai in output poi li butti in un csv (anche se non capisco il senso)
Kaya è offline   Rispondi citando il messaggio o parte di esso
Old 22-08-2019, 12:28   #3
$te
Senior Member
 
L'Avatar di $te
 
Iscritto dal: Aug 2006
Messaggi: 1262
Quote:
Originariamente inviato da Kaya Guarda i messaggi
non ho tempo per approfondire ma io farei uso di curl e poi un parser poi del file scaricato

quindi in step
prepari una lista di siti web
for line in lista
curl $line output $nomesito
parserizza il file di output per trovare i tag <a href>
ripeti quanto sopra per una seconda volta (altirmenti rischi di andare all'infinto)
end
tutti i file che hai in output poi li butti in un csv (anche se non capisco il senso)
Grazie per la risposta!

Non ho mai usato curl..

Quello che adesso sono riuscito a fare, usando scrapy, è semplicemente scaricare il body di un sito web:

import scrapy

class HeadphonesSpider(scrapy.Spider):

Codice HTML:
    name = "prova"

    def start_requests(self):
        urls = [
        'https://sito.it',
       
        ]

        for url in urls:
            yield scrapy.Request(url=url, callback=self.parse)

    def parse(self, response):
        body_urls = response.css('body').extract()
        with open('urls.txt', 'w') as f:
            for u in body_urls:
                f.write(u + "\n-------\n")

Tuttavia, in questo caso mi piacerebbe almeno riuscire a togliere tutti i vari tag..per pulire un po il testo salvato
$te è offline   Rispondi citando il messaggio o parte di esso
Old 22-08-2019, 13:16   #4
$te
Senior Member
 
L'Avatar di $te
 
Iscritto dal: Aug 2006
Messaggi: 1262
Quote:
Originariamente inviato da Kaya Guarda i messaggi
non ho tempo per approfondire ma io farei uso di curl e poi un parser poi del file scaricato

quindi in step
prepari una lista di siti web
for line in lista
curl $line output $nomesito
parserizza il file di output per trovare i tag <a href>
ripeti quanto sopra per una seconda volta (altirmenti rischi di andare all'infinto)
end
tutti i file che hai in output poi li butti in un csv (anche se non capisco il senso)
Il mio obbiettivo finale è quello di avere un excell in cui nella prima colonna c'è il sito web in questione e nella colonna seguente tutto il testo, e questo per più siti.
Spero di essermi spiegato bene.

Grazie
$te è offline   Rispondi citando il messaggio o parte di esso
Old 22-08-2019, 15:29   #5
Kaya
Senior Member
 
Iscritto dal: Apr 2005
Messaggi: 3276
Quote:
Originariamente inviato da $te Guarda i messaggi
Grazie per la risposta!

Non ho mai usato curl..

Quello che adesso sono riuscito a fare, usando scrapy, è semplicemente scaricare il body di un sito web:

import scrapy

class HeadphonesSpider(scrapy.Spider):

Codice HTML:
    name = "prova"

    def start_requests(self):
        urls = [
        'https://sito.it',
       
        ]

        for url in urls:
            yield scrapy.Request(url=url, callback=self.parse)

    def parse(self, response):
        body_urls = response.css('body').extract()
        with open('urls.txt', 'w') as f:
            for u in body_urls:
                f.write(u + "\n-------\n")

Tuttavia, in questo caso mi piacerebbe almeno riuscire a togliere tutti i vari tag..per pulire un po il testo salvato
Il problema di fondo in cui ti trovereai, è quello per cui all'interno di una pagina web ormai il testo "puro" è veramente minimale e il resto è tanta "porcheria" per i tuoi fini (tag div, script javascript, ecc ecc).

Comunque credo che qua trovi la risposta: https://stackoverflow.com/questions/...t-text-extract
Kaya è offline   Rispondi citando il messaggio o parte di esso
Old 23-08-2019, 10:03   #6
$te
Senior Member
 
L'Avatar di $te
 
Iscritto dal: Aug 2006
Messaggi: 1262
Quote:
Originariamente inviato da Kaya Guarda i messaggi
Il problema di fondo in cui ti trovereai, è quello per cui all'interno di una pagina web ormai il testo "puro" è veramente minimale e il resto è tanta "porcheria" per i tuoi fini (tag div, script javascript, ecc ecc).

Comunque credo che qua trovi la risposta: https://stackoverflow.com/questions/...t-text-extract
Grande!!! Adesso ci sono quasi:

Codice HTML:
import scrapy
from bs4 import BeautifulSoup

class HeadphonesSpider(scrapy.Spider):

    name = "prova"

    def start_requests(self):
        urls = [
        'https://sito1.it',
        'https://sito2.it'
        ]

        for url in urls:
            yield scrapy.Request(url=url, callback=self.parse)

    def parse(self, response):
        body_urls = response.css('body').extract()     
        new_body = str(body_urls)
        soup = BeautifulSoup(new_body, 'html.parser')
        just_text = soup.get_text()
        just_text= just_text.replace('\\n',' ')
        
        with open('urls.csv', 'w') as f:
            for u in body_urls:
                f.write(just_text + "\nBLABLA")
f.close()
Adesso ho solo due problemini:
1 - nel file csv, non viene scritto tutto solo in una cella..ma in 3-4 tipo..e non capisco come mai
2 - nell'esempio ho messo due siti internet, ma alla fine mi controlla solo nel primo sito

Pero, ho fatto passi da giganti, grazie!!
$te è offline   Rispondi citando il messaggio o parte di esso
Old 23-08-2019, 11:07   #7
Kaya
Senior Member
 
Iscritto dal: Apr 2005
Messaggi: 3276
Per il primo punto faccio una ipotesi:
nel testo che prendi sono presenti , e ; .
Soluzione: fai una sostituzione nel testo dei doppia apici (") con un escape (\") e poi metti tutto il testo che ottieni tra doppi apici. In questo modo quanto importi lo considera un unico campo

Per il secondo punto non sono in grado di aiutarti
Kaya è offline   Rispondi citando il messaggio o parte di esso
Old 11-09-2019, 17:46   #8
$te
Senior Member
 
L'Avatar di $te
 
Iscritto dal: Aug 2006
Messaggi: 1262
Quote:
Originariamente inviato da Kaya Guarda i messaggi
Per il primo punto faccio una ipotesi:
nel testo che prendi sono presenti , e ; .
Soluzione: fai una sostituzione nel testo dei doppia apici (") con un escape (\") e poi metti tutto il testo che ottieni tra doppi apici. In questo modo quanto importi lo considera un unico campo

Per il secondo punto non sono in grado di aiutarti
alla fine, ho già una buona parte di quello che volevo, grazie mille!
Riesco quindi ad andare in una pagina, prendere il testo e togliere i vari tag!

Ora, sto cercando come fare per ottenere tutte le pagine di un sito web, per poi avviare lo script. Purtroppo, vedo che non tutti posseggono un sitemap (o magari sbaglio?) che renderebbe il lavoro molto piu facile...
$te è offline   Rispondi citando il messaggio o parte di esso
Old 31-10-2019, 11:33   #9
$te
Senior Member
 
L'Avatar di $te
 
Iscritto dal: Aug 2006
Messaggi: 1262
Quote:
Originariamente inviato da $te Guarda i messaggi
alla fine, ho già una buona parte di quello che volevo, grazie mille!
Riesco quindi ad andare in una pagina, prendere il testo e togliere i vari tag!

Ora, sto cercando come fare per ottenere tutte le pagine di un sito web, per poi avviare lo script. Purtroppo, vedo che non tutti posseggono un sitemap (o magari sbaglio?) che renderebbe il lavoro molto piu facile...
Ho scoperto che basta aggiungere un follow=True per ottenere tutte le pagine di un sito web, perfetto!!
$te è offline   Rispondi citando il messaggio o parte di esso
Old 13-12-2019, 15:05   #10
$te
Senior Member
 
L'Avatar di $te
 
Iscritto dal: Aug 2006
Messaggi: 1262
Riscrivo..perché adesso avrei bisogno di analizzare le pagine di un sito, ma solo quelle in inglese (se esiste la versione in inglese).

Il problema è che se no mi ritrovo ad analizzare siti multilingua (con più di 5 lingue) e quindi di un contenuto identico ma in lingue differenti.

Sto utilizzando scrapy, nel setting.py si può settare la lingua di default dello spyder, ma questo significa solo che partirà dalle pagine in inglese, per poi continuare con le altre lingue.

Come posso fare?

Grazie
$te è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione vivo X300 Pro: è ancora lui il re della fotografia mobile, peccato per la batteria Recensione vivo X300 Pro: è ancora lui il...
Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'...
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti AWS re:Invent 2025: inizia l'era dell'AI-as-a-Se...
Cos'è la bolla dell'IA e perché se ne parla Cos'è la bolla dell'IA e perché se...
BOOX Palma 2 Pro in prova: l'e-reader diventa a colori, e davvero tascabile BOOX Palma 2 Pro in prova: l'e-reader diventa a ...
Toyota usa giochi e premi per spingere i...
HarmonyOS ha raggiunto la soglia di sopr...
Le offerte Amazon più convenienti...
Un gruppo di ladri ha usato Google Maps ...
Apple non si fida di Samsung per la real...
Windows 11: un nuovo driver nativo mette...
Vi hanno regalato buoni Amazon? Intanto ...
Via acari, polvere e sporco da materassi...
Cuffie Beats in super offerta su Amazon,...
Xbox Cloud Gaming arriva su Amazon Fire ...
Un blackout a San Francisco manda in til...
Windows 11 è diventato più...
Apple cambia strategia a causa della cri...
007 First Light: uscita rimandata di due...
Samsung Galaxy A37 e A57: il comparto fo...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 11:47.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v