Wikipédia a été le sauveur de tous les étudiants lorsqu'il s'agit de terminer des projets scolaires ou universitaires. Le plus grand site Web participatif au monde contient des informations sur tous les sujets que vous pouvez imaginer.
Comme vous le savez déjà, Wikipedia est une encyclopédie en ligne avec des informations testables. L'idée que toute personne disposant d'une connexion Internet puisse modifier librement les informations était banane. Cela n'allait jamais fonctionner, mais d'une manière ou d'une autre, le site remplit toujours son rôle.
Wikipedia a été lancé il y a 19 ans, en 2001. À ses débuts, les contributeurs ont effectué des tâches telles que le tri du vandalisme sur le site Web, car l'information était disponible pour tout le monde et n'importe qui aurait pu faire des modifications. Cela a été possible dans les premiers jours car le nombre de contributeurs était moindre et cela a entraîné des modifications moindres qui auraient pu être traitées manuellement. Mais d'ici 2007, le site a commencé à gagner un trafic insensé et a rencontré environ 180 modifications par minute. il est devenu incontrôlable de contrôler ce montant manuellement.
Entrez dans les robots
Bot, abréviation de «robot logiciel», est un outil automatisé développé par des contributeurs pour effectuer des tâches spécifiques. Actuellement, il y a un total de 1601 robots travaillant pour Wikipédia et assumant différentes responsabilités.
Le Dr Jeff Nickerson, professeur au Stevens Institute of Technology de Hoboken, New Jersey, qui a étudié les bots Wikipedia, a déclaré à Digital Trends que la principale raison pour laquelle les bots ont été créés était la protection contre le vandalisme..
Il a dit qu'il arrive souvent que quelqu'un accède à une page Wikipédia et la diffame. Avec la quantité de trafic sur le site Web, il devient vraiment ennuyeux et difficile pour ceux qui gèrent ces pages de modifier continuellement les pages..
«Donc, un type logique de protection [était] d'avoir un robot capable de détecter ces attaques.», a déclaré Nickerson.
Le Dr Nickerson et d'autres chercheurs du Stevens Institute of Technology ont effectué la première analyse approfondie de tous les 1601 robots travaillant pour le site Web. Cette étude a été publiée dans le Proceedings of the ACM on Human-Computer Interactions Journal. Selon l'étude, 10% de toutes les activités sur le site sont réalisées par des bots.
L'étude menée par les chercheurs a divisé les robots en 9 catégories en fonction des rôles et des responsabilités qui leur sont attribués. Les catégories sont expliquées ci-dessous:
- Générateur - Responsable de la génération de pages de redirection et de pages basées sur d'autres sources.
- Fixateur - Responsable de la fixation des liens, du contenu, des fichiers et des paramètres dans le modèle / la catégorie / l'infobox
- Connecteur - Responsable de la connexion de Wikipédia avec d'autres Wikis et sites.
- Tagger - Responsable du marquage du statut de l'article, de l'évaluation des articles, des projets Wiki, du statut multimédia.
- Employé de bureau - Responsable de la mise à jour des statistiques, de la documentation des données utilisateur, de la mise à jour des pages de maintenance et de l'envoi d'alertes d'article.
- Archiveur - Responsable de l'archivage du contenu et du nettoyage du bac à sable.
- Protecteur - Responsable de l'identification des violations, des spams et des vandalismes.
- Conseiller - Responsable de fournir des suggestions pour les projets wiki et les utilisateurs. Il accueille également les nouveaux utilisateurs.
- Notifier - Responsable de l'envoi des notifications aux utilisateurs.
Le Wikipédia que nous connaissons et auquel nous faisons confiance pour tous nos projets d'école / collège ne sera pas le même sans l'aide de ces petits gars qui travaillent sans relâche pour rendre la plate-forme plus raffinée et digne de confiance. À cette époque et à cette époque, les bots ont une mauvaise réputation sur le marché. Mais ces robots montrent que chaque pièce a deux faces. Les robots de Wikipédia sont le système immunitaire qui protège le site et nous donnent l'espoir que la technologie peut vraiment nous aider. Après tout, nous avons créé la technologie, la technologie ne nous a pas créés.