AI-virksomheden OpenAI har afsløret, at den har identificeret og afbrudt flere globale online-indflydelseskampagner, som brugte dens teknologi til at manipulere den offentlige mening på globalt plan.
Misbrug af AI til indflydelsestaktik
Onde aktører har brugt AI til at generere kommentarer til artikler, skabe navne og biografier til konti på sociale medier og oversætte og korrekturlæse tekster. De har fokuseret på en lang række emner, herunder politik, krigen i Ukraine, LGBTQ+-rettigheder og valg. Disse vildledende påvirkningskampagner viser omfanget af de udfordringer, som AI-teknologier udgør med hensyn til misinformation og manipulation af den offentlige mening.
Afbrydelse af fem indflydelseskampagner
OpenAI sagde, at de havde afbrudt fem udenlandske hemmelige påvirkningsoperationer i de sidste tre måneder. De omfatter grupper som “Spamouflage”, der brugte OpenAI til søgning og indholdsgenerering, og “Doppelganger”, der genererede kommentarer på flere sprog for at manipulere den offentlige mening. OpenAI har bekræftet sin forpligtelse til at overvåge og forhindre misbrug af sine teknologier.
Konsekvenser for fremtiden
Denne nyhed fremhæver de potentielle farer ved at misbruge AI til at manipulere den offentlige mening i stor skala. Det kan få betydelige konsekvenser for, hvordan AI-virksomheder styrer og sikrer deres teknologi i fremtiden. OpenAI sagde, at de ville fortsætte med at overvåge og forstyrre denne type misbrug.
Konklusion
OpenAI har sat en stopper for globale påvirkningskampagner, der misbrugte AI-teknologi til at manipulere den offentlige mening. Det understreger de potentielle farer ved misbrug af AI og konsekvenserne for, hvordan virksomheder håndterer denne teknologi i fremtiden. OpenAI sagde, at de ville fortsætte med at overvåge og afbryde denne type misbrug.