Ignora gli URL in robot.txt con parametri specifici?

Vorrei che Google ignorasse gli URL come questo:

http://www.mydomain.com/new-printers?dir=asc&order=price&p=3

Tutti gli URL con i parametri dir, ordine e prezzo devono essere ignorati, ma non ho esperienza con Robots.txt.

Qualche idea?

Ecco una soluzione se desideri disabilitare le stringhe di query:

Disallow: /*?* 

o se vuoi essere più preciso sulla tua stringa di query:

 Disallow: /*?dir=*&order=*&p=* 

Puoi anche aggiungere al file robots.txt quale URL consentire

 Allow: /new-printer$ 

$ Farà in modo che solo la /new-printer sia consentita.

Ulteriori informazioni:

http://code.google.com/web/controlcrawlindex/docs/robots_txt.html

http://sanzon.wordpress.com/2008/04/29/advanced-usage-of-robotstxt-w-querystrings/

È ansible bloccare quei parametri specifici della stringa di query con le seguenti righe

 Disallow: /*?*dir= Disallow: /*?*order= Disallow: /*?*p= 

Quindi se qualche URL contiene dir= , order= o p= ovunque nella stringa di query, verrà bloccato.

Registra il tuo sito web con Google WebMaster Tools. Qui puoi dire a Google come gestire i tuoi parametri.

Configurazione del sito -> Parametri URL

Dovresti avere le pagine che contengono quei parametri che indicano che dovrebbero essere esclusi dall’indicizzazione tramite il meta tag robots. per esempio