O Google quer classificar os resultados do seu mecanismo de busca pela confiabilidade dos conteúdos presentes em cada site.
Ou seja, quanto mais fatos verdadeiros uma página mostrar, maior visibilidade ela terá nos resultados de busca.
A última edição da revista New Scientist publicou os resultados preliminares do estudo feito por engenheiros da empresa, na universidade de Cornell, nos Estados Unidos.
Atualmente, o Google classifica os resultados de busca com base em critérios como o número de links que direcionam até um determinado site, além do tempo que os usuários passam nele e sua presença nas redes sociais.
Uma equipe de engenheiros e pesquisadores do Google percebeu que o algoritmo atual (chamado de PageRank) reflete apenas a popularidade do site, e não a veracidade do conteúdo da página.
Um exemplo são os sites de celebridades e fofocas: embora sejam extremamente populares, eles não podem ser considerados absolutamente confiáveis.
O novo algoritmo iria buscar informações no Knowledge Vault do Google, uma imensa base de dados com 2,8 bilhões de verbetes extraídos da internet.
Ao cruzar o conteúdo das páginas com a base de dados, e então checar os fatos relacionados, a equipe de pesquisa acredita que o algoritmo poderia dar uma nota a cada site, baseado na confiança das informações.
Dessa forma, as páginas com alta proporção de notícias e alegações falsas poderiam ser rebaixadas nos resultados de busca.
Segundo o estudo, o novo algoritmo ainda está em fase de pesquisas e não existe previsão para sua implantação.
Postar um comentário