Finalmente se ha confirmado oficialmente que tanto Google como Bing tienen listas de excepciones («whitelist») a sus algoritmos.
Ellos dicen que lo hacen para mejorar la experiencia de los usuarios y que existen determinadas páginas web afectadas por los algoritmos y que no deberían de haberse vistos afectados. La solución hasta que el algoritmo se perfecciona es crear excepciones.
Esto lo dijo Matt Cutts, jefe del equipo de lucha anti-spam en los resultados de Google, durante la mesa redonda Spam Police de SMX West.
Esto se contradice con la información anterior dada por Google que no existe una listado de excepciones a sus algoritmos y tampoco al último (Farmer / Panda update).
En la mesa redonda también explicaron Google y Bing que sus algoritmos no son 100% perfectos y que por eso son necesarias esas listas de excepciones.
La respuesta de oficial de Google no se ha hecho esperar explicando que se usan las listas de excepciones solamente cuando un algoritmo afecta a una página web a la que no debería de afectar y si esa excepción mejora los resultados de búsqueda. También dicen que la mayoría de las excepciones manuales son para el filtro SafeSearch (que filta el contenido adulto de los resultados de búsqueda). Ponen como ejemplo el dominio «essex.edu» que se catalogó como contenido para adultos por contener la palabra «sex».