Skip to main content
Weiter zur Homepage der Europäischen Kommission (öffnet in neuem Fenster)
Deutsch Deutsch
CORDIS - Forschungsergebnisse der EU
CORDIS

Article Category

Article available in the following languages:

Die Herausforderungen der Cyber-Desinformation meistern

Deepfakes, verzerrte Algorithmen: Langsam kommt das Gefühl auf, dass im Internet hinter jeder Ecke Desinformation lauern könnte. Was kann dagegen unternommen werden?

Neueste Vorstöße im komplexen Wettlauf um die Erkennung und Bekämpfung von Cyber-Desinformation

Inhalte können hassmotivierte Straftaten und andere Verbrechen nach sich ziehen, aber viele europäische Polizeibehörden verfügen über keinen Zugang zu spezialisierten Instrumenten oder Technologien, die ihnen bei der Bewältigung dieses Problems hilfreich zur Seite stehen könnten: Wie können sie unterstützt werden? Wie können wir als Einzelpersonen feststellen, ob wir manipuliert werden? Wir sind in zunehmendem Maße Cyber-Desinformation ausgesetzt, entweder passiv über die sozialen Medien oder aktiv, wenn wir Suchmaschinen und bestimmte Websites nutzen, die uns zu Seiten führen, die unsere Voreingenommenheit verstärken und Mauern aus Vorurteilen errichten. Die Unternehmen betreiben einige Anstrengungen, um Websites mit gezielten Falschmeldungen zu erkennen und zu entfernen sowie die Verbreitung von Desinformation in den sozialen Medien einzudämmen, aber wie verhält es sich mit den Suchmaschinen selbst? Könnten Webcrawler einen innovativen Weg weisen, um uns bei der Überprüfung ihrer Aktivitäten zu helfen? Die Verbreitung von Desinformation im Internet bedroht unsere demokratischen Werte. Da die Menge an Fehlinformationen zunimmt, kommt der künstlichen Intelligenz (KI) und insbesondere den Sprachtechnologien eine entscheidende Rolle bei deren Aufdeckung zu. Maschinelles Lernen und KI trainieren auf der Basis von großen Sprachmodellen, aber was ist mit Sprachen, die über einen kleineren Online-Fußabdruck verfügen und weniger häufig verwendet werden? Wie können wir die künstliche Intelligenz stärken, um in den sogenannten „ressourcenarmen“ Sprachen der Desinformation entgegenzuwirken? Hören Sie, wie diese und weitere Cyberrisiken mithilfe von EU-Forschungsfinanzierung bekämpft werden. Owen Conlan(öffnet in neuem Fenster) ist Forschungsbeauftragter am Trinity College(öffnet in neuem Fenster), Dublin, und Professor an der School of Computer Science and Statistics(öffnet in neuem Fenster). Er ist außerdem Kodirektor des Trinity Centre for Digital Humanities(öffnet in neuem Fenster). Owen interessiert sich sehr für die Nutzungskontrolle über personalisierte KI-gesteuerte Systeme, die er im Rahmen des Projekts VIGILANT erkundet hat. Joana Gonçalves-Sá(öffnet in neuem Fenster) ist Forscherin am Nova Laboratory for Computer Science and Informatics(öffnet in neuem Fenster) und am Laboratory of Instrumentation and Experimental Particle Physics(öffnet in neuem Fenster) in Lissabon, an dem sie die Forschungsgruppe Social Physics and Complexity leitet. Sie rückt menschliche und algorithmische Verzerrungen in der Mittelpunkt, wobei sie Falschmeldungen als ein Modellsystem einsetzt, das Gegenstand ihres Projekts FARE_AUDIT ist. Marián Šimko(öffnet in neuem Fenster) ist Forschungsexperte am Kempelen Institute of Intelligent Technologies(öffnet in neuem Fenster) in der Slowakei. Seine Schwerpunkte sind die Verarbeitung natürlicher Sprache, Informationsextraktion, die Verarbeitung ressourcenarmer Sprachen und die Interpretierbarkeit neuronaler Modelle. Die Arbeit des Projekts DisAI konzentrierte sich auf die Entwicklung neuer Ansätze für die Sprachverarbeitung, um die Leistungsfähigkeit großer Sprachlernmodelle für weniger häufig genutzte Sprachen zu verbessern.

Wir freuen uns darauf, von Ihnen zu hören!

Ihr Feedback würde uns sehr interessieren! Schicken Sie uns bitte Ihre Kommentare, Fragen und Vorschläge an: editorial@cordis.europa.eu.

Mein Booklet 0 0