Skip to main content
Przejdź do strony domowej Komisji Europejskiej (odnośnik otworzy się w nowym oknie)
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS

Article Category

Article available in the following languages:

Walka z dezinformacją w cyberprzestrzeni

Technika deepfake czy stronnicze algorytmy tworzą wrażenie, że dezinformacja może czaić się w każdym zakamarku internetu. Jak możemy sobie z tym problemem poradzić?

Najnowsze działania na polu identyfikacji i zwalczania cyberdezinformacji

Pewne treści mogą inspirować do popełniania przestępstw z nienawiści i innych aktów przemocy, jednak wiele europejskich organów policji nie ma dostępu do żadnych specjalistycznych narzędzi ani technologii, które pomogłyby im w rozwiązaniu tego problemu. Zatem w jaki sposób można by im pomóc? W jaki sposób my, jako jednostki, możemy dowiedzieć się, czy jesteśmy poddawani manipulacji? Korzystając z internetu, jesteśmy coraz bardziej narażeni na (dez)informację w cyberprzestrzeni, zarówno w sposób bierny poprzez kanały mediów społecznościowych, jak i aktywnie – za pośrednictwem wyszukiwarek i witryn internetowych kierujących nas na strony, które wzmacniają nasze stronnicze poglądy i przyczyniają się do wznoszenia murów uprzedzeń. Wiele firm podejmuje pewne wysiłki, aby identyfikować i usuwać strony z fałszywymi wiadomościami oraz minimalizować rozprzestrzenianie się dezinformacji w mediach społecznościowych. Jednak jak wpłynąć na same wyszukiwarki? Czy roboty internetowe mogą nam zaoferować innowacyjny sposób kontrolowania ich aktywności? Rozprzestrzenianie się cyberdezinformacji zagraża naszym demokratycznym wartościom. Wraz ze wzrostem ilości dezinformacji coraz ważniejszą rolę w jej wykrywaniu zaczyna odgrywać sztuczna inteligencja (AI), a w szczególności technologie językowe. Jako że algorytmy AI i uczenia maszynowego szkolą się na dużych modelach językowych, wyzwanie stanowią języki, które pozostawiają mniejszy ślad w sieci z uwagi na fakt, że są używane rzadziej. W jaki sposób możemy wzmocnić sztuczną inteligencję w celu zwalczania dezinformacji w tzw. językach „o ograniczonych zasobach”? Posłuchajmy zatem, jak te oraz inne cyberzagrożenia są pokonywane przy pomocy unijnych programów finansowania badań naukowych. Owen Conlan(odnośnik otworzy się w nowym oknie) jest członkiem honorowym Kolegium Trójcy Świętej(odnośnik otworzy się w nowym oknie) w Dublinie i profesorem w Szkole Informatyki i Statystyki(odnośnik otworzy się w nowym oknie). Jest także jednym z dyrektorów Trinity Centre for Digital Humanities(odnośnik otworzy się w nowym oknie). Owen interesuje się przede wszystkim kontrolą użytkownika nad spersonalizowanymi systemami opartymi na AI, które badał w ramach projektu VIGILANT. Joana Gonçalves-Sá(odnośnik otworzy się w nowym oknie) jest pracowniczką naukową dwóch lizbońskich laboratoriów: Nova Laboratory for Computer Science and Informatics(odnośnik otworzy się w nowym oknie) oraz Laboratory of Instrumentation and Experimental Particle Physics(odnośnik otworzy się w nowym oknie), gdzie kieruje grupą badawczą zajmującą się fizyką społeczną i złożonością. W badaniach uprzedzeń zarówno ludzi, jak i algorytmów wykorzystuje ona fałszywe wiadomości jako system modelowy, co było przedmiotem realizowanego przez nią projektu FARE_AUDIT. Z kolei Marián Šimko(odnośnik otworzy się w nowym oknie) jest ekspertem naukowym w Kempelen Institute of Intelligent Technologies(odnośnik otworzy się w nowym oknie) na Słowacji. Koncentruje się na przetwarzaniu języka naturalnego, ekstrakcji informacji, przetwarzaniu języka o ograniczonych zasobach i interpretowalności modeli neuronowych. Projekt DisAI poświęcony był opracowaniu nowych metod przetwarzania języka z myślą o poprawie funkcjonalności dużych modeli uczenia się języków na potrzeby rzadziej używanych języków.

Czekamy na Wasze opinie!

Jeśli chcesz podzielić się z nami swoją opinią na temat naszych podcastów, napisz do nas! Wszelkie komentarze, pytania lub sugestie prosimy przesyłać na adres editorial@cordis.europa.eu.

Moja broszura 0 0