Alors que l'expression `` Quatre cavaliers de l'infocalypse '' a longtemps été utilisée sur Internet pour désigner des criminels tels que les trafiquants de drogue, les blanchisseurs d'argent, les pédophiles et les terroristes, le terme `` Infocalypse '' a été introduit relativement récemment par le diplômé du MIT, Aviv Ovadya, qui travaille actuellement en tant que technologue en chef au Center for Social Media Responsibility (UMSI). En 2016, au plus fort de la crise des fausses nouvelles, Ovadya avait exprimé ses inquiétudes aux technologues de la Silicon Valley au sujet de la propagation de la désinformation et de la propagande déguisée en informations réelles dans une présentation intitulée `` Infocalypse ''..
Selon sa présentation, les plates-formes Internet comme Google, Facebook et Twitter gagnent leurs revenus dans le but de récompenser les clics, les partages et l'audience plutôt que de donner la priorité à la qualité de l'information. Cela, a-t-il soutenu, allait être un véritable problème le plus tôt possible, étant donné la facilité avec laquelle il est devenu facile de publier ce que tout le monde ressent sans aucun filtre. Les grandes sociétés Internet ignorant largement ses préoccupations, Ovadya a décrit la situation comme «Voiture carénage hors de contrôle» que tout le monde a simplement ignoré.
Alors que ses prédictions se sont maintenant révélées terriblement exactes, il y a plus de mauvaises nouvelles pour ceux qui s'inquiètent de la confusion des frontières entre la vérité et la propagande à motivation politique. Selon lui, l'IA sera largement utilisée au cours des deux prochaines décennies pour des campagnes de désinformation et de propagande. Afin d'arrêter cet avenir dystopique, Ovadya travaille en tandem avec un groupe de chercheurs et d'universitaires pour voir ce qui peut être fait pour éviter une apocalypse de l'information.
Un de ces aspects concerne les deepfakes ou les vidéos générées par l'IA de célébrités transformées sur d'autres vidéos, en grande partie pornographiques. Reddit a récemment interdit au moins deux de ces sous-reddit appelés `` r / deepfakes '' et `` r / deepfakesNSFW '' qui comptaient déjà des milliers de membres et distribuaient de fausses vidéos pornographiques de diverses célébrités, comme Taylor Swift, Meghan Markle, etc. D'autres plates-formes, comme Discord, Gyfcat, Pornhub et Twitter, ont également interdit le porno d'échange de visage non consensuel sur leurs plates-formes..
Au-delà de la violation de la vie privée individuelle, Ovadya dit que de telles vidéos pourraient avoir un effet déstabilisateur sur le monde, si elles sont utilisées à des fins politiques. Ils peuvent «créer la croyance qu'un événement s'est produit» pour influencer la géopolitique et l'économie. Tout ce dont vous avez besoin est de nourrir l'IA avec autant d'images d'un politicien cible que possible, et de les transformer sur une autre vidéo disant des choses potentiellement dommageables..
La seule lueur d'espoir, cependant, est que les gens admettent enfin qu'ils ont eu tort d'éloigner la menace des fausses informations il y a deux ans. Selon Ovadya, «Au début, c'était vraiment sombre - peu écoutaient. Mais les derniers mois ont été vraiment prometteurs. Certains des freins et contrepoids commencent à se mettre en place ». S'il est certainement positif que les technologues cherchent à résoudre un problème qui devrait s'aggraver dans les années à venir, il sera intéressant de voir à quel point ils seront préparés à la guerre de l'information à venir lorsque nous serons enfin confrontés au pire des cas. , étant donné que, "De nombreux signes avant-coureurs se sont déjà produits", selon Ovadya.