W dzisiejszych czasach nie trudno o natknięcie się na teorie spiskowe, szczególnie w czasie debat politycznych, takich jak ta z udziałem kandydatów na prezydenta USA. Ostatnio duże zamieszanie wywołały twierdzenia Donalda Trumpa i senatora z Ohio, J.D. Vance’a, że imigranci z Haiti mieli rzekomo zjadać domowe zwierzęta. Nie przedstawiono żadnych dowodów potwierdzających te groteskowe oskarżenia, a lokalne władze zaprzeczyły tym informacjom. Niemniej jednak, fałszywe oskarżenie szybko zyskało popularność w internecie, co stało się powodem do niepokoju wśród ekspertów badających zjawisko rozprzestrzeniania się teorii spiskowych.
Badacze od dawna martwią się, jak szybko teorie spiskowe mogą zdobywać zwolenników. Co więcej, niektóre badania sugerują, że ludzie, którzy wierzą w teorie spiskowe, są odporni na fakty, które im przeczą.
Jednak nowe badanie opublikowane w czasopiśmie Science daje nadzieję, że pod pewnymi warunkami wielu ludzi może porzucić swoje fałszywe przekonania. W ramach tego badania sprawdzono, czy rozmowy z chatbotem opartym na generatywnej sztucznej inteligencji mogą skutecznie wpłynąć na osoby wierzące w popularne teorie spiskowe, takie jak ta, że ataki z 11 września były zaplanowane przez rząd USA, czy że wirus COVID-19 został stworzony przez „globalne elity” w celu kontrolowania społeczeństw.
Badanie przeprowadzono na grupie 2,190 uczestników, którzy mieli możliwość wyboru jednej teorii spiskowej, a następnie prowadzenia spersonalizowanej rozmowy z chatbotem opartym na GPT-4 Turbo od OpenAI. Ten model został przeszkolony na ogromnych zbiorach danych pochodzących z internetu i innych licencjonowanych źródeł.
Po rozmowie z chatbotem badacze odkryli, że 20% uczestników zmieniło swoje podejście do teorii spiskowych, co oznacza, że co czwarta osoba przestała wierzyć w teorie, o której rozmawiała. Co więcej, ten spadek wiary utrzymał się przez dwa miesiące po zakończeniu eksperymentu.
David Rand, jeden z autorów badania, zwrócił uwagę, że wyniki te są dowodem na to, iż ludzie mogą zmieniać zdanie pod wpływem faktów, mimo powszechnego sceptycyzmu w tej kwestii.
„Fakty i dowody mają znaczenie dla znacznej liczby ludzi” – powiedział Rand. Pomimo że wiele osób uważa, że fakty straciły swoją moc w dyskusjach o teoriach spiskowych, Rand uważa, że wciąż mają one siłę przekonywania.
Warto zauważyć, że badanie nie testowało, czy uczestnicy byliby bardziej skłonni zmienić zdanie po rozmowie z chatbotem, niż po rozmowie z kimś bliskim, np. przyjacielem lub rodzeństwem. Badacze podejrzewają jednak, że sukces chatbota wynika z jego zdolności do szybkiego dostarczania precyzyjnych faktów i dowodów. W przykładowej rozmowie przytoczonej w badaniu, uczestnik, który wierzył, że ataki z 11 września były sfingowane, otrzymał szczegółowe wyjaśnienia naukowe dotyczące tego, jak wieże World Trade Center mogły się zawalić bez udziału materiałów wybuchowych. Na początku rozmowy osoba ta była w 100% pewna swojej teorii, ale na końcu jej pewność spadła do 40%.
Każdy, kto próbował dyskutować z kimś wierzącym w teorie spiskowe, może znać sytuacje, w których rozmowy są pełne „dziwnych, ezoterycznych faktów i linków”, które trudno obalić w szybki sposób. Chatbot oparty na sztucznej inteligencji nie ma tego problemu, ponieważ potrafi natychmiast reagować na te argumenty, bazując na faktach.
Dodatkowo, chatbot nie jest obciążony żadnymi osobistymi relacjami, które mogą wpływać na sposób postrzegania rozmówcy przez osobę wierzącą w teorie spiskowe. Przykładowo, w przypadku rozmowy z członkiem rodziny mogłyby pojawić się stare konflikty, które zniekształcają odbiór informacji. Chatbot został zaprogramowany, aby być uprzejmym, budując z uczestnikiem rozmowy relację opartą na zrozumieniu i chęci wyjaśnienia wątpliwości.
W badaniu zauważono również, że im większe było zaufanie uczestników do sztucznej inteligencji, tym bardziej byli skłonni do porzucenia swoich fałszywych przekonań. Co ciekawe, nawet osoby sceptycznie nastawione do AI były w stanie zmienić zdanie po rozmowie z chatbotem. Aby upewnić się, że chatbot nie rozpowszechnia fałszywych informacji, badacze zatrudnili profesjonalnego weryfikatora faktów, który sprawdził treści generowane przez chatbota. Okazało się, że prawie wszystkie twierdzenia były prawdziwe, a żadne nie okazało się fałszywe.
Dla zainteresowanych wynikami badania, badacze stworzyli narzędzie o nazwie DebunkBot, które pozwala użytkownikom sprawdzić swoje przekonania w konfrontacji z AI.
Rand i jego współautorzy wyobrażają sobie przyszłość, w której chatboty mogłyby być połączone z kontami w mediach społecznościowych, aby przeciwdziałać teoriom spiskowym krążącym na tych platformach. Możliwe też, że chatboty mogłyby pojawiać się w wynikach wyszukiwania, gdy ktoś szuka informacji o popularnych plotkach czy fałszywych teoriach, pomagając użytkownikom odróżniać prawdę od dezinformacji.
Choć wyniki badania są obiecujące, Rand ostrzega, że technologia ta może zostać wykorzystana również przez osoby o złych intencjach, które mogłyby stworzyć chatboty wspierające fałszywe teorie. Przykładem może być chatbot szkolony na postach z mediów społecznościowych zawierających fałszywe informacje.
„Zobaczymy, jak to się rozwinie” – mówi Rand. „Jeśli ludzie będą głównie korzystać z modeli opracowanych przez firmy, które wkładają dużo wysiłku w ich dokładność, mamy szansę, aby stały się one narzędziem szeroko użytecznym i godnym zaufania.”