A Wikipedia tem sido a salvadora de todos os alunos quando se trata de concluir projetos escolares ou universitários. O maior site de crowdsourcing do mundo contém informações sobre qualquer tópico que você possa imaginar.
Como você já sabe, a Wikipedia é uma enciclopédia online com informações testáveis. A ideia de que qualquer pessoa com uma conexão à Internet pode editar as informações livremente era absurda. Isso nunca iria funcionar, mas de alguma forma o site ainda serve ao seu propósito.
A Wikipedia foi lançada há 19 anos, em 2001. Em seus primeiros dias, os colaboradores realizavam tarefas como eliminar o vandalismo no site, já que as informações estavam disponíveis para todos e qualquer um poderia ter feito edições. Isso foi possível no início, pois o número de colaboradores era menor e isso resultou em edições menores que poderiam ter sido feitas manualmente. Mas em 2007, o site começou a ganhar uma quantidade absurda de tráfego e encontrou cerca de 180 edições por minuto. ficou fora de controle controlar esse valor manualmente.
Entre nos bots
Bot, abreviação de “robô de software”, é uma ferramenta automatizada desenvolvida por colaboradores para realizar tarefas específicas. Atualmente, há um total de 1601 bots trabalhando para a Wikipedia com diferentes responsabilidades.
O Dr. Jeff Nickerson, professor do Stevens Institute of Technology em Hoboken, N.J., que estudou os bots da Wikipedia, disse à Digital Trends que a principal razão pela qual os bots foram criados foi a proteção contra o vandalismo.
Ele disse que muitas vezes alguém vai a uma página da Wikipedia e a difama. Com a quantidade de tráfego no site, torna-se realmente irritante e difícil para aqueles que mantêm essas páginas continuamente fazer alterações nas páginas.
“Então, um tipo lógico de proteção [era] ter um bot que pode detectar esses ataques.”, afirmou Nickerson.
O Dr. Nickerson, junto com outros pesquisadores do Stevens Institute of Technology, realizou a primeira análise extensa de todos os 1601 bots trabalhando para o site. Este estudo foi publicado no Proceedings of the ACM on Human-Computer Interactions Journal. De acordo com o estudo, 10% de todas as atividades do site são feitas por bots.
O estudo conduzido pelos pesquisadores dividiu os bots em 9 categorias de acordo com suas funções e responsabilidades atribuídas a eles. As categorias são explicadas abaixo:
- Gerador - Responsável por gerar páginas de redirecionamento e páginas baseadas em outras fontes.
- Fixador - Responsável por corrigir links, conteúdo, arquivos e parâmetros no template / categoria / infobox
- Conector - Responsável por conectar a Wikipedia a outros wikis e sites.
- Tagger - Responsável por marcar o status do artigo, avaliação do artigo, projetos Wiki, status de multimídia.
- Escriturário - Responsável por atualizar estatísticas, documentar dados do usuário, atualizar páginas de manutenção e entregar alerta de artigo.
- arquivo - Responsável por arquivar conteúdo e limpar a sandbox.
- Protetor - Responsável por identificar violações, spams e vandalismos.
- Orientador - Responsável por fornecer sugestões para projetos e usuários wiki. Ele também cumprimenta novos usuários.
- Notificador - Responsável por enviar notificações aos usuários.
A Wikipedia que conhecemos e confiamos para todos os nossos projetos de escolas / faculdades não será a mesma sem a ajuda desses pequeninos que trabalham incansavelmente para tornar a plataforma mais refinada e confiável. Nesta época e época, os bots têm uma reputação negativa no mercado. Mas esses bots mostram que toda moeda tem dois lados. Os bots da Wikipedia são o sistema imunológico que protege o site e nos dá esperança de que a tecnologia pode realmente nos ajudar. Afinal, nós criamos a tecnologia, a tecnologia não nos criou.