Walka z dezinformacją w cyberprzestrzeni
Poniższy tekst jest tłumaczeniem transkrypcji przygotowanej przez SI.
00:00:00:00 - 00:00:38:12
Abigail Acton
Witamy słuchaczy i słuchaczki podcastu CORDIScovery! Dzień dobry i zapraszam do wysłuchania nowego odcinka podcastu CORDIScovery! Z tej strony Abigail Acton. Czy pamiętamy jeszcze czasy, kiedy mogliśmy surfować po internecie z przekonaniem, że to, co przeglądamy, jest raczej wiarygodne? A może zdradzam tym swój wiek? Po latach wydaje mi się, że informacje stają się coraz mniej godne zaufania, a stosowanie technik deepfake i stronniczych algorytmów tworzy wrażenie, że dezinformacja może czaić się w każdym zakamarku internetu.
00:00:38:16 - 00:01:01:02
Abigail Acton
Rozpoznawanie, śledzenie i badanie dezinformacji oraz innych problematycznych treści w internecie jest niezwykle złożonym wyzwaniem. Może to inspirować do popełniania przestępstw z nienawiści i innych aktów przemocy, jednak wiele europejskich organów policji nie ma dostępu do żadnych specjalistycznych narzędzi ani technologii, które pomogłyby im w rozwiązaniu tego problemu. Zatem w jaki sposób można by im pomóc? W jaki sposób my – jako jednostki – możemy dowiedzieć się, czy jesteśmy poddawani manipulacji?
00:01:01:07 - 00:01:24:00
Abigail Acton
Korzystając z internetu, jesteśmy coraz bardziej narażeni na (dez)informację w cyberprzestrzeni, zarówno w sposób bierny, poprzez kanały mediów społecznościowych, jak i aktywnie – za pośrednictwem wyszukiwarek i witryn internetowych kierujących nas na strony, które wzmacniają nasze stronnicze poglądy i przyczyniają się do wznoszenia murów uprzedzeń. Wiele firm podejmuje pewne wysiłki, aby identyfikować i usuwać strony z fałszywymi wiadomościami oraz minimalizować rozprzestrzenianie się dezinformacji w mediach społecznościowych. Jednak jak wpłynąć na same wyszukiwarki?
00:01:24:05 - 00:01:48:14
Abigail Acton
Czy roboty internetowe mogą nam zaoferować innowacyjny sposób kontrolowania ich aktywności? Rozprzestrzenianie się cyberdezinformacji zagraża naszym demokratycznym wartościom. Wraz ze wzrostem ilości dezinformacji coraz ważniejszą rolę w jej wykrywaniu zaczynają odgrywać w szczególności technologie językowe oparte na sztucznej inteligencji. Algorytmy AI i uczenia maszynowego szkolą się na dużych modelach językowych. Zatem co można zrobić w przypadku języków, które pozostawiają mniejszy ślad w sieci? Tych, które są rzadziej używane?
00:01:48:16 - 00:02:14:11
Abigail Acton
W jaki sposób możemy wzmocnić sztuczną inteligencję w celu zwalczania dezinformacji w tzw. językach o ograniczonych zasobach? O odpowiedź na te pytania poproszę trzech naukowców wspieranych w ramach unijnych programów finansowania badań naukowych, którzy pomogą nam zrozumieć te zawiłości. Owen Conlan jest członkiem honorowym Kolegium Trójcy Świętej w Dublinie i profesorem w Szkole Informatyki i Statystyki. Jest także jednym z dyrektorów ośrodka badawczego Trinity Center for Digital Humanities.
00:02:14:13 - 00:02:20:13
Abigail Acton
Owen interesuje się przede wszystkim kontrolą użytkownika nad spersonalizowanymi systemami opartymi na AI. Dzień dobry, Owenie!
00:02:20:15 - 00:02:21:24
Owen Conlan
Witaj, Abigail. Dziękuję za zaproszenie.
00:02:22:02 - 00:02:42:03
Abigail Acton
Joana Gonçalves-Sá jest pracowniczką naukową dwóch lizbońskich laboratoriów: Nova Laboratory for Computer Science and Informatics oraz Laboratory of Instrumentation and Experimental Particle Physics, gdzie kieruje grupą badawczą zajmującą się fizyką społeczną i złożonością. W badaniach uprzedzeń zarówno ludzi, jak i algorytmów wykorzystuje ona fałszywe wiadomości jako systemy modelowe. Witaj, Joano.
00:02:42:09 - 00:02:43:19
Joana Gonçalves-Sá
Dziękuję za zaproszenie.
00:02:43:21 - 00:02:59:08
Abigail Acton
Marián Šimko jest ekspertem naukowym zatrudnionym w Kempelen Institute of Intelligent Technologies na Słowacji. Marián koncentruje się na przetwarzaniu języka naturalnego, ekstrakcji informacji, przetwarzaniu języka o ograniczonych zasobach i interpretowalności modeli neuronowych. Dzień dobry, Mariánie.
00:02:59:10 - 00:03:00:18
Marián Šimko
Dzień dobry. Cieszę się, że mogę tu gościć.
00:03:00:22 - 00:03:18:18
Abigail Acton
Miło mi, że do nas dołączyłeś. Pozwól, że zacznę od ciebie, Owenie. W ramach projektu VIGILANT powstaje zintegrowana platforma, zawierająca zaawansowane narzędzia i technologie do identyfikacji i analizy dezinformacji przy pomocy nowoczesnych metod AI. Jak rozumiem, w centrum twoich zainteresowań jest sztuczna inteligencja ukierunkowana na człowieka, ale czy możesz podzielić się z nami swoją definicją tej technologii?
00:03:18:23 - 00:03:41:05
Owen Conlan
Tak, oczywiście. Humanocentryczna sztuczna inteligencja, czyli ukierunkowana na człowieka, stara się zrozumieć symbiotyczne interakcje między człowiekiem a systemami AI, aby rzeczywiście pozwolić nam – ludziom i użytkownikom – docenić fakt, że agent AI działa w naszym imieniu. A jest to dość skomplikowana sprawa, a zapewne nikt nie chciałby zagłębiać się w zawiłości i bardzo drobne szczegóły działania algorytmów splotowych i tym podobnych.
00:03:41:05 - 00:04:00:24
Owen Conlan
To nikomu nie służy. Ale z drugiej strony, nikt nie chce też, aby agent AI po prostu mówił: „oto twoja odpowiedź”. A cała reszta pozostawała czarną magią. Więc jak znaleźć złoty środek? Otóż kiedy mowa o „humanocentrycznej AI”, chodzi o próbę znalezienia spersonalizowanego sposobu na pokazanie danemu użytkownikowi, jak agent AI działa na jego rzecz.
00:04:01:05 - 00:04:23:16
Owen Conlan
Pokazywane są kluczowe informacje, które są wykorzystywane do generowania odpowiedzi, wraz z wyjaśnieniem. A podczas generowania odpowiedzi najważniejsze jest dla nas wskazywanie na naprawdę problematyczne treści, na które użytkownik musi zwrócić uwagę, aby móc zrozumieć, jaki jest np. kontekst dochodzenia albo że dana treść może stanowić dezinformację. Jak więc wyjaśnić to użytkownikowi w sposób sensowny i praktyczny?
00:04:23:19 - 00:04:36:05
Abigail Acton
Rozumiem. Teraz jest to dla mnie jaśniejsze. Dziękuję. Owenie, wiem, że w przeszłości pracowałeś nad projektem o nazwie PROVENANCE. Dotyczył on pomagania zwykłym użytkownikom w odnalezieniu się w tych zawiłych zagadnieniach. Czy zanim przejdziemy do projektu VIGILANT, mógłbyś pokrótce opowiedzieć o tym?
00:04:36:07 - 00:05:15:21
Owen Conlan
Jak najbardziej. Projekt PROVENANCE miał na względzie zwykłych użytkowników, takich jak ty czy ja, którzy korzystają z rożnych treści zamieszczanych w sieci, szczególnie w mediach społecznościowych. Z myślą o nich podjęliśmy próbę pokazania, które elementy w danym kanale społecznościowym mogą posiadać problematyczne sygnały. Co mam na myśli, mówiąc o problematycznych sygnałach? Może na przykład chodzić o zbyt emocjonalny język użyty do przedstawienia czegoś, co określono mianem „wiadomości”, lub o przekaz zawierający terminologię, o której wiemy, że może być naprawdę problematyczna, na przykład w odniesieniu do różnych członków grup społecznych, bądź też chodzi o wykorzystywanie zasobów medialnych, które pojawiały się w innych kontekstach.
00:05:15:23 - 00:05:44:13
Owen Conlan
A potem zostały użyte w zupełnie innym kontekście. Jesteśmy więc bardzo ostrożni w takiej sytuacji, aby nie twierdzić od razu, że coś jest nieprawdziwą informacją, tzw. „fake newsem”. Staramy się jedynie pokazać, że dana treść może być potencjalnie problematyczna z uwagi na sposób jej prezentacji. Z kolei interpretację chcemy pozostawić do pewnego stopnia w gestii użytkownika. Jednak aby to działało, musi iść w parze z wyposażeniem użytkownika w wiedzę na temat dezinformacji, np. o tym, dlaczego się ją stosuje oraz jakie środki i mechanizmy są używane, aby wywołać u nas określone reakcje.
00:05:44:15 - 00:06:22:04
Owen Conlan
W większości przypadków chodzi o bardzo silne bodźce emocjonalne, które dezinformacja wykorzystuje. Na przykład do tego, by skłonić nas do zmiany naszych przekonań, czy to na temat szczepionek, czy pewnych poglądów politycznych itp. Tak więc projekt PROVENANCE pozwolił nam na dogłębną analizę tego problemu. Jedną z kluczowych rzeczy, które zauważyliśmy, była rola, jaką nasze cechy osobowości naprawdę odgrywają w podatności na dezinformację, a także wpływ tych cech na rodzaj interwencji, które mogłyby umożliwić konkretnemu użytkownikowi interakcję z tymi informacjami w kontrolowany i zrozumiały sposób.
00:06:22:04 - 00:06:44:02
Owen Conlan
Wówczas użytkownik nie tylko widzi daną rzecz i w nią wierzy, ale gdy widzi daną rzecz, zaczyna ją kwestionować i zadawać sobie pytanie: czy to jest prawdziwe? Jednak biorąc to wszystko pod uwagę, trzeba również zadbać o to, by ludzie mogli mieć pewność, że w sieci wciąż istnieją treści godne ich zaufania. Ponieważ jeśli to, co robimy, spowoduje, że ludzie zaczną każdą treść podważać, to doprowadzimy do sytuacji, w której wszystko zacznie być uznawane za spisek i w której żadnym treściom online nie należy ufać.
00:06:44:02 - 00:06:46:00
Owen Conlan
Trzeba więc zachować równowagę w podejmowanych działaniach.
00:06:46:05 - 00:07:02:13
Abigail Acton
Tak, masz rację. Zdecydowanie. Jest w tym logika. To naprawdę fascynujące. Dobrze. Przejdźmy teraz do projektu VIGILANT. Jak rozumiem, projekt VIGILANT był raczej poświęcony tworzeniu narzędzi dla organów ścigania, mówiąc prościej: dla policji. Czy możesz powiedzieć nam więcej o narzędziach, nad którymi pracuje zespół projektu?
00:07:02:15 - 00:07:32:12
Owen Conlan
Oczywiście. Jednym z największych wyzwań, przed którymi stoi policja, podobnie jak każdy z nas, jest ogromna ilość treści w internecie. Utrudnia to rozpoznawanie, które treści mogą być problematyczne z kryminalnego punktu widzenia. Teraz musimy być bardzo ostrożni. Nie chodzi tutaj bowiem o żadną inwigilację na masową skalę. Mam na myśli okoliczności, w których dana osoba lub aktywności w trakcie dochodzenia koncentrują się na pewnym obszarze treści, ponieważ istnieje podejrzenie, że mają one kryminalny charakter.
00:07:32:14 - 00:07:59:07
Owen Conlan
Rodzaj działalności przestępczej, o której mówimy, to często działania ekstremistów, osób próbujących zachęcić członków społeczeństwa do czynów przestępczych i antyspołecznych. Dzieje się tak na platformach, z których wszyscy korzystamy. Być może ma to łagodny charakter, ale są też ludzie, którzy nie używają ich w tak łagodny sposób. Byłoby dobrze zilustrować to przykładem, na przykład grupy publikującej nieprawdziwe informacje.
00:07:59:07 - 00:08:17:20
Owen Conlan
I tu właśnie mamy do czynienia z dezinformacją. Przedstawiam tu sytuację czysto hipotetyczną. Taka grupa może na przykład twierdzić, że na bardzo znanym miejscu na La Rambla planowana jest budowa meczetu. Więc w zależności od wysuwanych twierdzeń i toczącej się wokół debaty wiadomość ta może być po prostu uznana za fałszywą informację, co samo w sobie nie jest nielegalne.
00:08:17:22 - 00:08:42:01
Owen Conlan
Ale jeśli ludzie zaczną się pod wpływem tego twierdzenia mobilizować i planować zamieszki, wówczas obróci się to w działanie niezgodne z prawem. Tak więc narzędzia, które oferujemy policji, mogą być wykorzystane przez funkcjonariuszy do analizy podejrzanych treści – mogą one zbierać, identyfikować i interpretować wyrażane emocje. Nietypowy jest dla nas fakt, że wśród oczywistych wskaźników problemu są nie tylko tak oczywiste emocje, jak nienawiść, ale także emocje, których z tym nie łączymy.
00:08:42:03 - 00:09:11:23
Owen Conlan
Taką emocją jest na przykład szczęście. Chodzi o sytuacje, w których członkowie danej grupy są w pewnym sensie szczęśliwi, ponieważ zamierzają się wspólnie zorganizować i wprowadzić w życie swój plan. Przyglądamy się więc spójnym logicznym jednostkom, nazwom, słowom i tak dalej, a także emocjom i ich zbieżności, a następnie możemy je przedstawić za pomocą obrazu. Tak więc policjant może na pierwszy rzut oka sprawdzić, na przykład na kanale komunikatora Telegram, gdzie znajdują się punkty zapalne i przyjrzeć się im bliżej.
00:09:12:00 - 00:09:30:13
Abigail Acton
Rozumiem. Jestem pod wrażeniem. Doskonale. W zasadzie jest to zrozumiałe. Mam na myśli wspomniane emocje – prawdopodobnie chodzi o ten dreszczyk emocji, podniecenia lub oczekiwania, co może być sygnałem ostrzegawczym. Cóż. Zatem w jaki sposób funkcjonariusze – osoby przeglądające treści na komputerze i próbujące ustalić, gdzie powinny skierować zasoby – otrzymują te wizualne informacje?
00:09:30:15 - 00:09:52:09
Owen Conlan
Po pierwsze, skupiają się danym kanale, więc używamy do tego koncepcji „węzła”. A w zasadzie koncepcji „rozplątywania węzła”. W tym celu importują oni wiele różnych źródeł informacji. Źródła te są przetwarzane pod kątem języka naturalnego, podmiotu, emocji, wielu różnych elementów i są przedstawiane na osi czasu i intensywności.
00:09:52:15 - 00:09:57:10
Owen Conlan
Pozwala to funkcjonariuszom zobaczyć w sposób wizualny punkty zapalne, w których te rzeczy współwystępują.
00:09:57:12 - 00:10:04:15
Abigail Acton
W porządku. Można więc dostrzec nakładające się na siebie elementy, które są czerwonymi flagami. Tak. A kiedy określona liczba elementów nałoży się na siebie, policjant rozumie, że musi się tym zająć.
00:10:04:17 - 00:10:06:21
Owen Conlan
Wówczas zaczyna szczegółowo zagłębiać się w treść.
00:10:06:24 - 00:10:07:11
Abigail Acton
Rozumiem.
00:10:07:12 - 00:10:16:08
Owen Conlan
Pozwala im to dotrzeć do sedna sprawy i dokładnie zrozumieć dany przypadek. Na pewno nie chcemy, aby system AI decydował o działaniach policji.
00:10:16:14 - 00:10:18:03
Abigail Acton
No tak.
00:10:18:05 - 00:10:25:03
Owen Conlan
Naszym zamiarem jest, aby tego typu system wspierał drobiazgowe analizy, które pozwolą następnie określić, w jaki sposób najlepiej wykorzystać zasoby.
00:10:25:03 - 00:10:32:07
Abigail Acton
W rzeczywistości jest to sposób na przesiewanie ogromnej ilości danych w celu ustalenia faktycznych źródeł wymagających dokładniejszego zbadania.
00:10:32:07 - 00:10:32:22
Owen Conlan
Dokładnie tak.
00:10:32:24 - 00:10:35:13
Abigail Acton
Rozumiem. Zatem jest to ogromna oszczędność czasu.
00:10:35:19 - 00:10:56:15
Owen Conlan
Tak, to duża oszczędność czasu. A także możliwość ustalenia jak najlepszej strategii działania. Tak. Co ważne, w różnych krajach w Europie organy policji funkcjonują w oparciu o inne zasady. Na przykład w Irlandii nasze organy policji nazywają się An Garda Síochána, co oznacza „strażników pokoju”. I to naprawdę charakteryzuje sposób, w jaki wchodzą oni w interakcje ze społeczeństwem itp.
00:10:56:17 - 00:11:18:16
Owen Conlan
Tak samo funkcjonują w odniesieniu do przestrzeni cybernetycznej. Na przykład w Estonii funkcjonariusze są internetowymi „konstablami” którzy „patrolują” wirtualne ulice. Czasami oznacza to, że „pukają” oni do wirtualnych drzwi, aby powiadomić, że dana treść może nie jest nielegalna, ale należy pamiętać, że jesteśmy i czuwamy. Naszą rolą jest dbanie o to, by wszystko było w porządku.
00:11:18:18 - 00:11:24:09
Owen Conlan
Tak. Z tego względu narzędzia, takie jak VIGILANT, muszą sprawdzać się w tych bardzo różnych kontekstach.
00:11:24:11 - 00:11:43:05
Abigail Acton
Tak, dokładnie. Chodzi o to, że podejścia różnią się w zależności od kraju. Świetnie. Dziękuję bardzo. Wyjaśniłeś to doskonale. Wiem też, że pracujesz nad tworzeniem narzędzi i zasobów dla decydentów. Jak więc, twoim zdaniem, rozwiązania zaproponowane w projekcie VIGILANT, czy też wysiłki podjęte w ramach tej inicjatywy, mogą pomóc decydentom?
00:11:43:07 - 00:12:08:10
Owen Conlan
Tak. Z jednej strony są to bardzo podobne narzędzia, jeśli spojrzeć na nie z ogólnej perspektywy. Jednakże zakres ich działania oraz rodzaj wytycznych i wsparcia, jakie oferują one decydentom, jest zupełnie inny. Obecnie angażujemy się też w inny finansowany z europejskich środków projekt o nazwie Athena, który jest poświęcony problemowi zagranicznych manipulacji informacjami i ingerencji w informacje (FIMI). I to już bardziej przypomina narzędzia do nadzoru.
00:12:08:12 - 00:12:33:22
Owen Conlan
Tak, jak nie powinniśmy inwigilować ludności w naszych krajach, tak dopuszczalne jest przeglądanie „stron informacyjnych”, przy czym użycie cudzysłowu jest tutaj uzasadnione. Istnieją bowiem duże „farmy” dezinformacji produkujące całą gamę fałszywych informacji, często generowanych przez sztuczną inteligencję, których celem jest dotarcie do jak największej liczby osób. Informacje te pojawiają się w formie kampanii – kampanii, które są np. próbą zniszczenia konkretnej osoby ze świata polityki – i są rozprzestrzeniane wieloma różnymi kanałami.
00:12:33:22 - 00:12:54:24
Owen Conlan
A gdy już zyskają popularność, wówczas pojawia się jeszcze większa fala tych samych informacji. A tym, czym zajmują się narzędzia Athena, w podobny sposób jak narzędzia VIGILANT, jest zbieranie informacji z takich źródeł. Athena jest narzędziem mniej dyskryminującym, ponieważ nie koncentruje się na konkretnych osobach. I mimo że trzeba być bardzo ostrożnym z uwagi na dane osobowe, możliwe jest zbieranie informacji i tworzenie podobnych infografik.
00:12:54:24 - 00:13:20:13
Owen Conlan
Celem tego jest posiadanie bazy danych na potrzeby kształtowania decyzji i działań czy interwencji politycznych. Jednym z wyzwań, jakie często obserwujemy, jest fakt, że kampania FIMI może pojawić się w określonym kontekście językowym. Tak więc, przykładowo, może pojawić się w Grecji. I tak, kampania w języku greckim może dotyczyć np. problemu migracji, w związku z czym szerzone są fałszywe twierdzenia na ten temat, aby wywołać reakcję miejscowej ludności.
00:13:20:15 - 00:13:43:02
Owen Conlan
Sposób, w jaki zareagują na to greckie władze, sam w sobie jest lekcją. Następnie można połączyć podjęte przez władze działania z konkretnym problemem, co jest właśnie zadaniem platformy takiej jak Athena, a następnie daną praktykę przenieść np. na grunt włoski, jeśli we Włoszech pojawi się podobny problem, mimo że jest to inny kontekst polityczny. Mimo to wiele możemy się nauczyć z działań podjętych przez Greków.
00:13:43:04 - 00:13:56:17
Owen Conlan
Europa stanowi co prawda skomplikowaną mieszankę wielu różnych kontekstów kulturowych, językowych i krajowych. Jednak możemy się od siebie uczyć, tak by w przypadku zauważenia podobnych ataków móc przenieść tę wiedzę ponad granicami państw.
00:13:56:19 - 00:14:15:18
Abigail Acton
Wspaniale. Dziękuję serdecznie. Tak. Możemy uczyć się od siebie nawzajem. Dziękuję raz jeszcze. Dobrze. Joano, porozmawiajmy teraz o twoich badaniach. W ramach projektu FARE_AUDIT zaproponowano metodę audytu wyszukiwarek, która pozwala zobaczyć, jak historia przeglądania wpływa na wyniki wyszukiwarek oraz na prawdopodobieństwo napotkania informacji wprowadzających w błąd.
00:14:15:18 - 00:14:29:10
Abigail Acton
W pewnym stopniu pokrywa się to z projektami realizowanymi przez Owena. Czy możesz nam wyjaśnić, w jaki sposób zachowanie ludzi w internecie wiąże się z uprzedzeniami? I jakie znaczenie ma stronniczość w sieci?
00:14:29:12 - 00:14:52:04
Joana Gonçalves-Sá
Oczywiście. Zaznaczę, że mówimy tutaj o dwóch różnych projektach. W ramach jednego z nich zastanawialiśmy się, w jaki sposób ludzkie uprzedzenia lub błędy poznawcze mogą sprzyjać rozprzestrzenianiu się dezinformacji. Tak więc w przypadku każdej napotkanej przez nas informacji w sieci musimy zdecydować, czy w nią wierzymy i czy chcemy się nią podzielić z innymi.
00:14:52:06 - 00:15:15:09
Joana Gonçalves-Sá
I jak powiedział Owen, nie możemy po prostu dojść do wniosku, że albo w nic nie wierzymy i popadniemy w skrajny cynizm, albo uwierzymy we wszystko i staniemy się skrajnie naiwni. Tak więc zgodnie z naszą hipotezą, za każdym razem nasze decyzje są kształtowane także przez błędy poznawcze. Przykładem jest sytuacja, w której dana osoba spotkała się już z podobną informacją w przeszłości i jest skłonna w nią uwierzyć.
00:15:15:09 - 00:15:40:19
Joana Gonçalves-Sá
Wtedy mamy do czynienia z efektem potwierdzenia. Oznacza to, że łatwiej jest mi uwierzyć w informacje, w które już wierzę. Ponadto, jeśli moi przyjaciele zwykle ufają jakimś informacjom, to prawdopodobnie ulegam zjawisku, które nazywa się efektem faworyzowania własnej grupy (ang. in-group bias), której wierzę bardziej niż ekspertom. Używamy dezinformacji jako systemu modelowego do badania błędów poznawczych, podobnie jak inni naukowcy używają mysich modeli w laboratorium.
00:15:40:19 - 00:16:03:04
Joana Gonçalves-Sá
W ten sposób chcemy się dowiedzieć, w jaki sposób rozprzestrzeniają się poszczególne błędy poznawcze. Dzięki temu możemy dowiedzieć się o z góry przyjętych założeniach na temat świata i o sposobie, w jaki ludzie wchodzą w relacje z innymi członkami społeczeństwa. Można powiedzieć, że nasze badania biegną niejako w odwrotnym kierunku. Nie do końca badamy zjawisko dezinformacji, ale wykorzystujemy je do badania błędów poznawczych.
00:16:03:09 - 00:16:25:01
Abigail Acton
Co brzmi wspaniale. Ponieważ analiza, jak działają uprzedzenia, pokazuje również, w jaki sposób ludzie postrzegają i wykorzystują informacje w sieci. Tak więc efekt tzw. kabiny pogłosowej jest wzmacniany przez algorytmy stosowane przez wyszukiwarki internetowe, tak by dana informacja trafiła do danego użytkownika. Z tego względu użytkownik ma ogromne trudności z rozpoznaniem, że ma do czynienia z dezinformacją. Czy możesz nam opowiedzieć, jakie działania w tym zakresie podjęto w ramach projektu FARE_AUDIT?
00:16:25:07 - 00:16:50:08
Joana Gonçalves-Sá
Oczywiście. Z uwagi na trudności z rozpoznawaniem dezinformacji w ramach projektu podjęliśmy ogromne wysiłki, zwłaszcza w celu monitorowania sieci społecznościowych, ponieważ nasze kanały i profile są spersonalizowane i wspomniane uprzedzenia mogą mieć na nie wpływ. Wiedzą o tym osoby, które celowo zamieszczają te informacje w sieci. Wiedzą również, że nie jesteśmy doskonale racjonalnymi agentami, więc wykorzystują nasze uprzedzenia do wzmocnienia swojego przekazu.
00:16:50:10 - 00:17:14:18
Joana Gonçalves-Sá
Przeprowadzono wiele istotnych badań na temat mediów społecznościowych. Z tego względu my skupiliśmy się na dwóch innych narzędziach umożliwiających rozpowszechnianie informacji, które cieszą się dużo mniejszym zainteresowaniem uczonych. Głównym przedmiotem naszych prac były wyszukiwarki internetowe. Są one zazwyczaj postrzegane jako neutralne, a nawet jako „drzwi do prawdy”. I ludzie naprawdę wierzą w to, co widzą, jeśli stanowi to wynik ich poszukiwań.
00:17:14:18 - 00:17:40:09
Joana Gonçalves-Sá
Zwykle wygląda to tak, że użytkownik otwiera stronę Google lub inną wyszukiwarkę i wpisują wyszukiwaną rzecz. I zazwyczaj uzyskane wyniki, zwłaszcza te najwyżej sklasyfikowane, są uznawane za prawdziwe. Niestety, rzeczywistość jest inna. Z oczywistych względów wyszukiwarki personalizują wyświetlane dla nas treści na podstawie wielu różnych czynników, w tym naszej lokalizacji. Bazują także na naszych innych wyszukiwaniach z przeszłości, a nawet na historii przeglądania.
00:17:40:11 - 00:17:58:00
Abigail Acton
Czy mogę zatem zapytać, jakie narzędzia powstały w ramach projektu FARE_AUDIT, aby pomóc użytkownikom w zorientowaniu się, że mogą być celowo popychani w określonym kierunku? Jak rozumiem, jedno z narzędzi, które opracowaliście, może być przydatne dla dziennikarzy i organizacji stojących na straży demokracji czy też stowarzyszeń zajmujących się śledzeniem dezinformacji. Czy możesz powiedzieć nam coś więcej na ten temat?
00:17:58:01 - 00:18:18:07
Joana Gonçalves-Sá
Oczywiście. Niestety, bardzo trudno jest kontrolować internetowe zasoby, w szczególności wyszukiwarki, a dodatkowym problemem są zastrzeżone prawem algorytmy, w związku z czym ich działanie stanowi zagadkę. Ponadto nie chcieliśmy wykorzystywać danych prawdziwych osób ze względu na kwestie ochrony prywatności, a także subiektywność próbek. Zatem stworzyliśmy system robotów internetowych, które zwykle nazywamy botami. Nasze boty cechuje to, że naśladują ludzkie zachowania.
00:18:18:07 - 00:18:38:12
Joana Gonçalves-Sá
Stworzyliśmy więc małą armię botów, które przeglądają internet, zbierają pliki cookie i udają ludzi. I możemy sprawić, by udawały one mieszkańców różnych regionów, posługujących się różnymi językami, a także różniących się płcią, wiekiem oraz historią przeglądania. Ich zadaniem jest wpisywanie do wyszukiwarek takich samych zapytań w tym samym czasie.
00:18:38:14 - 00:19:02:03
Joana Gonçalves-Sá
Następnie porównujemy wyniki tych wszystkich zapytań z różnych wyszukiwarek. Wykorzystaliśmy dokładnie tę metodologię do przeprowadzenie szeregu różnych analiz. Załóżmy więc, że prowadzimy badanie dotyczące obecnego konfliktu izraelsko-palestyńskiego, w którym boty znajdują się po dwóch stronach granicy i wpisują te same zapytania.
00:19:02:05 - 00:19:25:22
Joana Gonçalves-Sá
Wówczas jesteśmy w stanie zobaczyć nie tylko, że uzyskane wyniki są różne, ale także to, czy mają odchylenia w konkretnym kierunku lub czy są w szczególny sposób stronnicze. Myślę, że ten konkretny przykład jest o tyle interesujący, ponieważ lokalizacja jest zwykle postrzegana jako neutralna pod względem profilowania. Na przykład jeśli szukam restauracji w pobliżu, oczywiście chcę, aby znajdowała się ona blisko mnie, a nie gdzieś bardzo daleko.
00:19:25:24 - 00:19:48:10
Joana Gonçalves-Sá
Jeśli jednak mówimy o konflikcie geopolitycznym, wyświetlanie różnych informacji na podstawie takiego samego zapytania osobom mieszkającym w różnych krajach może być niezwykle problematyczne. Podobnie jest w przypadku dwóch następujących audytów, które przeprowadziliśmy: pierwszy dotyczył europejskich wyborów parlamentarnych, w ramach którego boty reprezentujące mieszkańców różnych krajów europejskich pytały: na kogo powinienem zagłosować? Albo: która partia jest najlepsza?
00:19:48:12 - 00:20:10:11
Joana Gonçalves-Sá
Drugi audyt dotyczył wyborów prezydenckich w Stanach Zjednoczonych. Miały one miejsce w 2024 roku. Dzięki temu możemy zobaczyć, że na ogólne i czasami neutralne zapytania można uzyskać bardzo różne wyniki. Ponadto są one niekiedy bardzo nieobiektywne, co było szczególnie widoczne na przykładzie wyborów do Parlamentu Europejskiego.
00:20:10:11 - 00:20:13:24
Abigail Acton
A więc udało wam się zaobserwować określone uprzedzenia. O tak.
00:20:14:01 - 00:20:22:14
Joana Gonçalves-Sá
I to bardzo wyraźnie. Prawdopodobnie mogłabyś się domyślić, w którą stronę było więcej odchyleń. Czy w stronę tzw. prawicy, czy może lewicy.
00:20:22:20 - 00:20:29:10
Abigail Acton
Tak. Dobrze. To naprawdę ciekawe. Niestety, również nieco przerażające. Czy uzyskane wyniki były także według waszego zespołu dość niepokojące?
00:20:29:15 - 00:20:55:06
Joana Gonçalves-Sá
Oczywiście. Faktycznie, jest to przerażające. Nawet wśród rzeczywistych przypadków znaleźliśmy wyraźne uprzedzenia. Mimo że o wielu z tych partii nieczęsto się wspomina, to w przypadku każdej wzmianki okazuje się, że należą one do określonej rodziny. Fakt, że wyszukiwarki internetowe są tak powszechne i tak wiele milionów ludzi korzysta z nich każdego dnia, sprawia, że nawet gdyby uprzedzenia były niewielkie i sporadyczne, ta skala i tak byłaby niepokojąca z powodu znacznego wzmocnienia sygnału.
00:20:55:08 - 00:21:24:09
Joana Gonçalves-Sá
Co równie ważne, dysponujemy teraz tym narzędziem, które może być używane przez naukowców. Ponadto staramy się również dostosować je do potrzeb dziennikarzy i opinii publicznej, jak również wspieramy działania UE, czego przykładem jest program pilotażowy w ramach aktu o usługach cyfrowych, który polegał na przeprowadzeniu audytu bardzo dużych wyszukiwarek internetowych i próbie zidentyfikowania uprzedzeń i braku obiektywizmu. Wszystko to, ponieważ istnieje możliwość, że wyszukiwarki mogą być faktycznie manipulowane przez agentów politycznych.
00:21:24:09 - 00:21:33:21
Joana Gonçalves-Sá
Nie jest to wykluczone. Mogą oni używać optymalizacji wyszukiwarek lub innych systemów, aby wzmocnić swój sygnał, a wyszukiwarki nie są w stanie tego wychwycić.
00:21:33:21 - 00:21:44:23
Abigail Acton
Rozumiem. Czyli to tak, jakby prześlizgiwali się tylnymi drzwiami. Niestety. To naprawdę otwiera oczy. Dziękuję. Czy macie może jakieś pytania lub uwagi do niezwykłych rezultatów pracy Joany? Tak, Owenie. O co chciałbyś spytać?
00:21:45:00 - 00:21:47:08
Owen Conlan
Zgadzam się, że praca Joany jest naprawdę wspaniała.
00:21:47:08 - 00:21:48:14
Abigail Acton
Też tak myślę.
00:21:48:16 - 00:22:12:05
Owen Conlan
Czy rozważałaś być może użycie botów do analizy odpowiedzi udzielanych przez sztuczną inteligencję, które zaczynamy teraz widzieć w rezultatach wyszukiwania? Na przykład wyszukiwarka Google oferuje teraz podsumowanie AI dotyczące wielu odpowiedzi. Myślę, że mogą istnieć na tym polu duże szanse na stronniczość i sterowanie ludźmi. Byłoby ciekawe dowiedzieć się, jak te wyniki są dostosowywane na podstawie lokalizacji lub wiedzy na temat konkretnego użytkownika.
00:22:12:07 - 00:22:13:19
Owen Conlan
Czy jest to coś, co planujesz zbadać?
00:22:14:00 - 00:22:36:23
Joana Gonçalves-Sá
Tak, dlatego bardzo dziękuję za to pytanie. Otóż przeprowadziliśmy audyt dużych modeli językowych, opartych na oprogramowaniach ChatGPT i Copilot, gdzie zadawaliśmy podobne pytania. Na przykład: Na kogo głosować? Jakie są najlepsze partie? I nawet uzupełniliśmy zapytania o komponent płci. Przykładowe pytanie brzmiało: na kogo powinnam głosować jako kobieta lub na kogo powinienem głosować jako mężczyzna?
00:22:36:23 - 00:23:06:04
Joana Gonçalves-Sá
Uzyskane wyniki również okazały się bardzo stronnicze w tym samym kierunku, a po wprowadzeniu rozróżnienia na płeć były jeszcze mniej obiektywne. Rozumiem. Następnie skupiliśmy się bezpośrednio na platformach. Obecnie, dzięki integracji tych narzędzi przez wyszukiwarki, możemy również prowadzić bezpośrednie audyty, zarówno pod kątem wyników wyszukiwania i wyświetlanych przez nie adresów URL, jak i prezentowanych odpowiedzi sztucznej inteligencji. Dzięki temu możemy sprawdzić, czy uprzedzenia nadal się utrzymują, czy są wzmacniane, a jeśli nie, to czy może zostały wyeliminowane.
00:23:06:06 - 00:23:31:05
Abigail Acton
To naprawdę fascynujące. Dziękuję bardzo. Przedstawiłaś nam bardzo kompleksowe wyjaśnienie. Przypomina to trochę wyścig, w którym trzeba być wciąż na bieżąco i wymyślać innowacyjne sposoby na śledzenie manipulacji. Nadążając za tempem, w jakim sposoby manipulacji się zmieniają. Dziękuję bardzo. Zwrócę się teraz do Mariána. Celem projektu DisAI, realizowanego na Słowacji, było opracowanie godnych zaufania technologii i narzędzi AI dla języków o ograniczonych zasobach.
00:23:31:05 - 00:23:45:05
Abigail Acton
Właśnie rozmawialiśmy o modelach językowych. Zatem chętnie usłyszymy o zwalczaniu rosnącego problemu, jakim jest dezinformacja w internecie w przypadku języków pozostawiających mniejszy ślad w sieci. Czy możesz nam coś o tym opowiedzieć? Dlaczego w ogóle zainteresowałeś się tą tematyką?
00:23:45:07 - 00:24:15:08
Marián Šimko
Tak. Jako naukowiec jestem zafascynowany tym, jak technologia może nam pomóc w wielu zadaniach, które wykonujemy na co dzień. Większość z nich dotyczy różnych form komunikacji. W końcu taka jest natura nas, ludzi. Z tego względu metody i techniki z dziedziny, jaką jest przetwarzanie języka naturalnego, mają na celu wspieranie nas w codziennych czynnościach, takich jak wyszukiwanie, rozumienie, tworzenie lub przekształcanie niektórych informacji.
00:24:15:10 - 00:24:39:18
Marián Šimko
Obecnie wiele z tych technologii znajduje się w telefonach w naszych kieszeniach – na przykład używamy ich do filtrowania spamu w skrzynce mailowej, sugerowania porcji codziennych wiadomości lub podsumowywania recenzji produktów lub usług, które chcemy kupić. Dlatego jestem zdania, że wykorzystanie technologii językowych do zwalczania dezinformacji jest bardzo ważne. I przede wszystkim motywujące, ponieważ robimy to dla dobra społeczeństwa.
00:24:39:20 - 00:25:04:11
Marián Šimko
Co ciekawe, zjawisko dezinformacji nie jest niczym nowym. W rzeczywistości jest tak stare jak ludzkość. Ale tym, co czyni je wyjątkowym, są ogromne możliwości, jakie daje dzisiejsza technologia, która znacznie wzmacnia ten wpływ. Mam na myśli ilość dostępnych danych, natychmiastowy dostęp do informacji, szybkość rozprzestrzeniania się i rozwój generatywnej AI przy malejących kosztach.
00:25:04:13 - 00:25:06:17
Marián Šimko
Jak widać, jest to faktyczny problem.
00:25:06:17 - 00:25:26:14
Abigail Acton
Rozumiem. Zdecydowanie. Przed chwilą rozmawialiśmy o wykorzystywaniu zdolności sztucznej inteligencji do rozumienia języków w celu prezentowania nam określonych informacji. Jak wiemy, w ramach projektu DisAI pracujecie nad zwalczaniem dezinformacji w przypadku języków rzadziej używanych. Czy możesz powiedzieć nam nieco więcej o tym projekcie i próbie przeniesienia tych zastosowań na mniejsze języki?
00:25:26:18 - 00:25:53:10
Marián Šimko
Tak. Przede wszystkim należy pamiętać, że jakość czy efektywność najnowszych aplikacji do przetwarzania języka naturalnego, które obecnie szeroko wykorzystują głębokie sieci neuronowe, zależy od ilości danych wykorzystywanych do szkolenia. Na przykład duże modele językowe trenują w taki sposób, że czytają duże ilości tekstu w internecie i uczą się przewidywać następne słowo w zdaniu.
00:25:53:10 - 00:26:13:13
Marián Šimko
Na przykład, jeśli zdanie zaczyna się od słów „niebo jest...”, to słowem, które należy odgadnąć jest „błękitne”. Niebo jest błękitne. Takie modele uczą się wzorców i gramatyki poprzez nieustanne próby przewidzenia następnego słowa, i tak wiele, wiele razy z rzędu. Jest to podstawa dużej liczby najnowszych metod. I jest to wykorzystywane praktycznie do każdego zadania związanego z przetwarzaniem języka naturalnego, jakim obecnie dysponujemy.
00:26:13:15 - 00:26:42:07
Marián Šimko
Obejmuje to zadania, z którymi pracujemy w ramach projektu DisAI. Jednak wyzwaniem jest fakt, że są one związane ze zwalczaniem dezinformacji w przypadku rzadziej używanych języków. Cechą takich języków jest brak wystarczającej ilości treści jako solidnej podstawy dla tego modelu. W rezultacie modele te mogą mieć trudności ze zrozumieniem lub wygenerowaniem spójnego tekstu w tych językach.
00:26:42:09 - 00:27:00:22
Marián Šimko
Większość danych istnieje bowiem w takich językach, jak angielski, chiński, hiszpański itp. Te modele są znacznie lepsze. Prowadzi to do nierównych efektów, przez co osoby posługujące się językami o ograniczonych zasobach otrzymują odpowiedzi gorszej jakości. Są one mniej elokwentne, mniej dokładne, mniej użyteczne.
00:27:00:22 - 00:27:05:09
Abigail Acton
Rozumiem. Zatem jakie działania podjął zespół projektu DisAI, aby poprawić tę sytuację?
00:27:05:09 - 00:27:35:00
Marián Šimko
Tak. Przedmiotem naszego zainteresowania są weryfikatorzy informacji, jako podmioty pełniące ważną rolę w tym przedsięwzięciu, a także zwykli użytkownicy dysponujący podstawową technologią przetwarzania języka naturalnego. Właśnie oni napotykają większe trudności, gdy mają do czynienia z językami innymi niż angielski. W projekcie DisAI skupiamy się na opracowywaniu nowych podejść do przetwarzania języka, które mogą w tym pomóc.
00:27:35:00 - 00:27:58:07
Marián Šimko
Może to przyczynić się do poprawy działania aplikacji w językach o ograniczonych zasobach. Nasza motywacja jest całkiem naturalna – naszym ojczystym językiem jest słowacki, a więc doskonały przykład języka o ograniczonych zasobach. Na Słowacji dezinformacja jest nadal poważnym problemem. Podobnie jak w innych krajach Europy Wschodniej, demokracja jest tutaj, powiedzmy, bardziej krucha.
00:27:58:07 - 00:28:07:04
Marián Šimko
Dlatego ważne jest, aby ulepszyć te metody i ułatwić pracę weryfikatorom informacji.
00:28:07:04 - 00:28:23:22
Abigail Acton
Zdecydowanie. Zajmujesz się naprawdę istotną kwestią. Rozumiem to w całej rozciągłości. Czy mogę zapytać, jakie techniki udało wam się stworzyć w ramach projektu, aby umożliwić pokonanie tego wyzwania? Bardzo wyraźnie widzę, jaki jest wasz cel i motywacja. Ale co faktycznie udało wam się osiągnąć lub nad czym obecnie pracujecie?
00:28:24:01 - 00:28:46:21
Marián Šimko
Tak. Cóż. Oczywiście, już odpowiadam. W ramach inicjatywy DisAI wraz z moim zespołem staramy się opracować metody, techniki i narzędzia, które mogą ułatwić pracę weryfikatorom informacji. Ich praca polega na wykonywaniu różnych zadań, do wsparcia których można wykorzystać technologie językowe. W szczególności skupiamy się na zadaniu uzyskiwania informacji o wcześniejszej weryfikacji danego twierdzenia (ang. Fact-Checked Claim Retrieval). Jest to jeden z 4 lub 5 najważniejszych zadań w całej procedurze.
00:28:46:23 - 00:29:19:02
Marián Šimko
Mówiąc prościej, kiedy weryfikator faktów napotka nowe twierdzenie, na przykład o tym, że szczepionki zmieniają ludzkie DNA, musi się dowiedzieć, czy zostało ono już wcześniej sprawdzone przez kogoś innego. Może im to znacznie pomóc, ponieważ weryfikacja nowych twierdzeń jest dość wymagająca. Z tego względu wiele korzyści dałaby możliwość sprawdzenia wszystkich języków pod kątem tego, czy dane twierdzenie zostało już zweryfikowane. Mam tu na myśli również język portugalski czy indonezyjski.
00:29:19:02 - 00:29:25:05
Marián Šimko
Mogłoby to znacznie zmniejszyć obciążenie związane z weryfikacją informacji.
00:29:25:07 - 00:29:33:12
Abigail Acton
Dobrze. To dobry przykład. Dziękuję bardzo za odpowiedź. To naprawdę fascynujące. Dobrze. Myślę, że wszystko jasne. Ale może macie jakieś pytania lub uwagi do Mariána? Tak, Owenie. Zamieniamy się w słuch.
00:29:33:14 - 00:29:55:11
Owen Conlan
Mariánie, twoja praca jest kluczowa. Cały czas obserwujemy te problemy podczas naszych prób zwalczania dezinformacji. Brak zestawów danych w różnych kontekstach językowych jest utrudnieniem zarówno dla nas, jak i oczywiście dla policjantów zwalczających fałszywe informacje, które mogą pojawiać się w nieznanych im językach, a często w językach, które nie są dobrze reprezentowane w dostępnych zestawach danych.
00:29:55:17 - 00:30:15:24
Owen Conlan
Jednym z obszarów, który okazał się dla nas szczególnie trudnym wyzwaniem, było znalezienie zestawów danych dotyczących mowy nienawiści w języku niemieckim. Cóż, brzmi to jak coś, co powinno być łatwe do znalezienia, ale tak naprawdę zależy to od tego, na co położony jest nacisk. I czy w danych kontekstach językowych istnieją określone analizy. Próbowaliśmy więc przetłumaczyć wyrażenia będące mową nienawiści z angielskiego na niemiecki.
00:30:15:24 - 00:30:36:21
Owen Conlan
I jak można się domyślać, nie zadziałało to zbyt dobrze. Chodziło o proste rzeczy, takie jak zbitki słowne. Przykładem jest wyrażenie „Killary Clinton”, które dla osób anglojęzycznych stanowi oczywistą mowę nienawiści, ale nie można go przetłumaczyć. Istnieje więc bardzo wiele kontekstualnych, kulturowych, zakorzenionych aspektów. Dlatego ta praca jest tak niezbędna.
00:30:36:23 - 00:30:57:13
Abigail Acton
Myślę, że praca was wszystkich jest niezwykle ważna. Z przyjemnością wysłuchałam tego, co mieliście do powiedzenia na temat waszych planów i osiągnięć. Jak już wspominałam, jesteśmy świadkami wyścigu z coraz to nowszymi technikami dezinformacji, z którymi musimy się mierzyć. Zatem jeszcze raz bardzo dziękuję za waszą pracę.
00:30:57:14 - 00:31:02:14
Abigail Acton
Dziękuję, że chcecie rzucić więcej światła na to, co się dzieje w sieci. Dziękuję bardzo.
00:31:02:16 - 00:31:03:16
Joana Gonçalves-Sá
Dziękuję za zaproszenie.
00:31:03:17 - 00:31:04:09
Marián Šimko
Dziękuję.
00:31:04:13 - 00:31:36:15
Abigail Acton
To była przyjemność. Nie ma za co. Do zobaczenia. Uważajcie na siebie. Jeśli spodobał Ci się ten podcast, obserwuj nas w serwisach Spotify i Apple Podcasts. Zapraszamy także na stronę główną podcastu w serwisie CORDIS. Zachęcam też do zasubskrybowania naszego podcastu – dzięki temu nie ominą cię informacje na temat najciekawszych badań naukowych finansowanych przez UE. Jeśli lubisz nas słuchać, możesz powiedzieć o nas znajomym! Poruszyliśmy już wiele istotnych tematów, na przykład dotyczących wpływu jelit na nasz mózg, najnowszej technologii, która pomaga w prowadzeniu dochodzenia w sprawie gwałtu, a także tego, jak umożliwić lądowanie sondy na asteroidzie.
00:31:36:17 - 00:32:04:19
Abigail Acton
Zapraszamy do przesłuchania pozostałych 47 odcinków – z pewnością znajdziesz w nich coś, co pobudzi twoją ciekawość. Być może chcesz dowiedzieć się, nad czym pracują zespoły innych projektów finansowanych przez UE, aby przeciwdziałać zalewającej nas fali dezinformacji cyfrowej? Zapraszamy do serwisu CORDIS, gdzie znajdziesz rezultaty badań realizowanych w ramach inicjatyw „Horyzont 2020” i „Horyzont Europa”, które dotyczą tego obszaru. Znajdziesz tam artykuły i wywiady, a także analizy i wyniki badań dotyczących wielu dziedzin i zagadnień – od dodo po neurony.
00:32:04:23 - 00:32:29:10
Abigail Acton
Z pewnością znajdziesz tam coś dla siebie. Być może uczestniczysz w projekcie lub chcesz uzyskać dofinansowanie. W naszym serwisie dowiesz się, czym zajmują się inni badacze w twojej dziedzinie. Zajrzyj na nasz portal i poznaj badania, które zmieniają świat. Czekamy także na wiadomości, informacje i opinie. Możesz skontaktować się z nami pod adresem editorial@cordis.europa.eu. Do usłyszenia!
Najnowsze działania na polu identyfikacji i zwalczania cyberdezinformacji
Pewne treści mogą inspirować do popełniania przestępstw z nienawiści i innych aktów przemocy, jednak wiele europejskich organów policji nie ma dostępu do żadnych specjalistycznych narzędzi ani technologii, które pomogłyby im w rozwiązaniu tego problemu. Zatem w jaki sposób można by im pomóc? W jaki sposób my, jako jednostki, możemy dowiedzieć się, czy jesteśmy poddawani manipulacji? Korzystając z internetu, jesteśmy coraz bardziej narażeni na (dez)informację w cyberprzestrzeni, zarówno w sposób bierny poprzez kanały mediów społecznościowych, jak i aktywnie – za pośrednictwem wyszukiwarek i witryn internetowych kierujących nas na strony, które wzmacniają nasze stronnicze poglądy i przyczyniają się do wznoszenia murów uprzedzeń. Wiele firm podejmuje pewne wysiłki, aby identyfikować i usuwać strony z fałszywymi wiadomościami oraz minimalizować rozprzestrzenianie się dezinformacji w mediach społecznościowych. Jednak jak wpłynąć na same wyszukiwarki? Czy roboty internetowe mogą nam zaoferować innowacyjny sposób kontrolowania ich aktywności? Rozprzestrzenianie się cyberdezinformacji zagraża naszym demokratycznym wartościom. Wraz ze wzrostem ilości dezinformacji coraz ważniejszą rolę w jej wykrywaniu zaczyna odgrywać sztuczna inteligencja (AI), a w szczególności technologie językowe. Jako że algorytmy AI i uczenia maszynowego szkolą się na dużych modelach językowych, wyzwanie stanowią języki, które pozostawiają mniejszy ślad w sieci z uwagi na fakt, że są używane rzadziej. W jaki sposób możemy wzmocnić sztuczną inteligencję w celu zwalczania dezinformacji w tzw. językach „o ograniczonych zasobach”? Posłuchajmy zatem, jak te oraz inne cyberzagrożenia są pokonywane przy pomocy unijnych programów finansowania badań naukowych. Owen Conlan(odnośnik otworzy się w nowym oknie) jest członkiem honorowym Kolegium Trójcy Świętej(odnośnik otworzy się w nowym oknie) w Dublinie i profesorem w Szkole Informatyki i Statystyki(odnośnik otworzy się w nowym oknie). Jest także jednym z dyrektorów Trinity Centre for Digital Humanities(odnośnik otworzy się w nowym oknie). Owen interesuje się przede wszystkim kontrolą użytkownika nad spersonalizowanymi systemami opartymi na AI, które badał w ramach projektu VIGILANT. Joana Gonçalves-Sá(odnośnik otworzy się w nowym oknie) jest pracowniczką naukową dwóch lizbońskich laboratoriów: Nova Laboratory for Computer Science and Informatics(odnośnik otworzy się w nowym oknie) oraz Laboratory of Instrumentation and Experimental Particle Physics(odnośnik otworzy się w nowym oknie), gdzie kieruje grupą badawczą zajmującą się fizyką społeczną i złożonością. W badaniach uprzedzeń zarówno ludzi, jak i algorytmów wykorzystuje ona fałszywe wiadomości jako system modelowy, co było przedmiotem realizowanego przez nią projektu FARE_AUDIT. Z kolei Marián Šimko(odnośnik otworzy się w nowym oknie) jest ekspertem naukowym w Kempelen Institute of Intelligent Technologies(odnośnik otworzy się w nowym oknie) na Słowacji. Koncentruje się na przetwarzaniu języka naturalnego, ekstrakcji informacji, przetwarzaniu języka o ograniczonych zasobach i interpretowalności modeli neuronowych. Projekt DisAI poświęcony był opracowaniu nowych metod przetwarzania języka z myślą o poprawie funkcjonalności dużych modeli uczenia się języków na potrzeby rzadziej używanych języków.
Czekamy na Wasze opinie!
Jeśli chcesz podzielić się z nami swoją opinią na temat naszych podcastów, napisz do nas! Wszelkie komentarze, pytania lub sugestie prosimy przesyłać na adres editorial@cordis.europa.eu.