• 2024-06-30

Definiția Web Spidering și Crawlerele Web

Web Crawlers e arquivo robots.txt

Web Crawlers e arquivo robots.txt

Cuprins:

Anonim

Spiders sunt programe (sau scripturi automate) care "accesează cu crawlere" pe Web căutând date. Păianjenii călătoresc prin intermediul adreselor URL ale site-urilor web și pot trage date din pagini web cum ar fi adrese de e-mail. Spider-urile sunt, de asemenea, utilizate pentru a alimenta informațiile găsite pe site-urile motoarelor de căutare.

Spider-urile, care sunt denumite și "crawlere web", caută pe Web și nu toate sunt prietenoase în intenția lor.

Site-uri Spammers Spider pentru a colecta informații

Google, Yahoo! și alte motoare de căutare nu sunt singurele care sunt interesate de accesarea cu crawlere a site-urilor Web - așa sunt escrocii și spam-ul.

Spider-urile și alte instrumente automate sunt utilizate de către spammerii pentru a găsi adrese de e-mail (pe internet această practică este adesea denumită "recoltare") pe site-uri web și apoi folosiți-le pentru a crea liste de spam.

Spider-urile sunt, de asemenea, un instrument folosit de motoarele de căutare pentru a afla mai multe informații despre site-ul dvs., dar lăsat necontrolat, un site fără instrucțiuni (sau "permisiuni") despre cum să acceseze cu crawlere site-ul dvs. poate prezenta riscuri majore de securitate a informațiilor. Păianjenii călătoresc prin următoarele linkuri și sunt foarte abilitați să găsească linkuri către baze de date, fișiere de programe și alte informații la care este posibil să nu doriți ca aceștia să aibă acces.

Webmasterii pot vizualiza jurnalele pentru a vedea ce păianjeni și alți roboți au vizitat site-urile lor. Aceste informații ajută webmasterii să știe cine indexează site-ul și cât de des.

Aceste informații sunt utile deoarece permit webmasterilor să își regleze SEO și să actualizeze fișierele robot.txt pentru a interzice anumitor roboți să acceseze cu crawlere site-ul lor în viitor.

Sfaturi privind protejarea site-ului dvs. de la crawlerele robot nedorite

Există o modalitate destul de simplă de a păstra crawlerele nedorite din site-ul dvs. web. Chiar dacă nu sunteți preocupat de păianjenii rău-veniți cu crawlere pe site-ul dvs. (nu vă protejați adresa de e-mail de cele mai multe crawlere), trebuie să furnizați instrucțiuni importante motoarelor de căutare.

Toate site-urile web ar trebui să aibă un fișier situat în directorul rădăcină numit fișier robots.txt. Acest fișier vă permite să instruiți crawlerele web unde doriți ca acestea să caute pagini de index (dacă nu se specifică altfel într-o meta-dată a unei anumite pagini pentru a fi indexată) dacă acestea sunt un motor de căutare.

Așa cum puteți spune crawlerele dorite unde vreți să le parcurgeți, puteți să le spuneți și unde ar putea să nu meargă și chiar să blocheze crawlerele specifice de pe întregul dvs. site web.

Este important să rețineți că un fișier robots.txt bine construit va avea o valoare extraordinară pentru motoarele de căutare și ar putea fi chiar un element-cheie în îmbunătățirea performanței site-ului dvs., dar unele crawlere robot vor ignora instrucțiunile. Din acest motiv, este important să țineți la curent tot software-ul, pluginurile și aplicațiile.

Articole și informații înrudite

Datorită prevalenței recoltării informațiilor utilizate în scopuri nefaste (spam), a fost adoptată o legislație în 2003 pentru a face anumite practici ilegale. Aceste legi privind protecția consumatorilor intră sub incidența legii CAN-SPAM din 2003.

Este important să vă acordați timp pentru a citi versiunea CAN-SPAM Act în cazul în care afacerea dvs. se angajează în orice posta de masă sau culegerea de informații.

Puteți afla mai multe despre legile anti-spam și despre modul de abordare a spam-urilor și despre ceea ce dvs., în calitate de proprietar de afaceri, nu le puteți face, citiți următoarele articole:

  • CAN-SPAM Act 2003
  • CAN-SPAM Act de reglementare pentru non-profit
  • 5 Reguli CAN-SPAM Aveți nevoie să înțelegeți proprietarii de afaceri mici

Articole interesante

Modul în care managerii monitorizează și controlează comportamentul muncitorilor

Modul în care managerii monitorizează și controlează comportamentul muncitorilor

Controlul managerului descrie una dintre funcțiile de bază de a fi manager, de a monitoriza și de a controla activitatea angajaților și proiectul de echipă.

Câte ore pe săptămână reprezintă un loc de muncă cu normă întreagă?

Câte ore pe săptămână reprezintă un loc de muncă cu normă întreagă?

Câte ore pe săptămână sunt considerate cu normă întreagă și care angajați respectă standardul? De asemenea, reglementările, politicile companiei și cerințele de salarizare a orelor suplimentare.

Cât de mulți oameni folosesc Facebook în întreaga lume?

Cât de mulți oameni folosesc Facebook în întreaga lume?

Statistici Facebook, numărul de utilizatori, conectarea persoanelor, rata de creștere. Informații despre numărul de persoane care utilizează și se înregistrează în Facebook în fiecare zi.

Câte pagini ar trebui să fie un rezumat

Câte pagini ar trebui să fie un rezumat

Cât timp ar trebui să fie rezumatul mediu și care este diferența dintre un CV și un CV? Acest lucru și mai multe sunt subiectele abordate.

Cati ani de experienta sa listati CV-ul tau

Cati ani de experienta sa listati CV-ul tau

Nu este nevoie să vă listați întregul istoric de lucru în CV-ul dvs. Iată ce să includeți, care anii de experiență și ce date să includeți în CV-ul dvs.

Cum funcționează împrumuturile de marjă

Cum funcționează împrumuturile de marjă

Împrumuturile de împrumut sunt o metodă comună de finanțare utilizată de investitori și extinse de firmele de brokeraj, oferind persoanelor credite extinse și risc crescut.