97889 64456 72312 47532 85224 72311 99738 05314 18822 88877 83701 91188 72106 98803 83485 70762 67561 00923 55229 06479 57972 59061 74949 93171 14807 03728 86417 14924 55271 76483 09709 80826 48003 69756 41326 33857 90179 16007 50123 74390 32549 30315 44217 63317 75601 80709 41762 62320 18455 61834 28274 17965 11564 40730 97515 38882 00045 18375 34435 87730 65633 86354 42635 03181 37624 00288 29224 98754 64198 42645 13159 80277 57942 84214 09885 11406 37363 27238 16160 82824 82750 03902 45252 98749 86602 85405 74120 11069 70749 63642 54482 33973 81058 25338 11638 53184 38067 75862 58160 05931 81160 94118 63131 11678 37627 13358 15577 41533 20376 02073 54475 97260 40548 91470 84971 47067 00960 20371 54295 32383 70544 08125 72446 96640 07075 16165 30869 08344 20223 85830 11652 84248 58240 18720 83640 74865 63798 26432 11368 91553 98930 40390 63732 07578 52004 83379 91665 87295 27594 70342 33614 00445 56766 74846 32119 67664 51801 34739 44392 32414 80290 43295 50949 32938 59188 82226 64963 12065 07486 96473 17151 41690 05059 80565 72757 89563 68610 87113 78719 74762 26213 13426 23716 54025 70952 73308 30338 98371 80443 39662 15506 33308 53719 47268 57523 71539 98084 43052 68615 92226 35372 86296 82533 08533 12606 77475 19780 50069 42332 94775 84463 97795 86712 89454 36026 27730 87899 25252 69813 38682 Erkennung von Einflusskampagnen auf X mit KI und Netzwerkwissenschaft – MJRBJC
Die wichtigsten Sprachmodelle

Bildnachweis: Pixabay/CC0 Public Domain

Im Zeitalter generativer KI und großer Sprachmodelle (LLM) können riesige Mengen unauthentischer Inhalte schnell über Social-Media-Plattformen verbreitet werden. Infolgedessen werden Kriminelle immer raffinierter, kapern Hashtags, verstärken künstlich irreführende Inhalte und verbreiten massenhaft Propaganda.

Diese Aktionen werden oft von staatlich geförderten Informationsoperationen (IOs) orchestriert, die versuchen, die öffentliche Meinung bei großen geopolitischen Ereignissen wie den US-Wahlen, der COVID-19-Pandemie usw. zu beeinflussen.

Der Kampf gegen diese IOs war noch nie so wichtig. Die Identifizierung von Influencer-Kampagnen mithilfe hochpräziser Technologie wird die Fehlklassifizierung legitimer Benutzer als IO-Treiber erheblich reduzieren und sicherstellen, dass Social-Media-Anbieter oder Regulierungsbehörden nicht versehentlich Influencer-Kampagnen sperren, während sie versuchen, illegale Aktivitäten einzudämmen.

Vor diesem Hintergrund ist Luca Luceri, Forscher am USC Information Sciences Institute (ISI), einer der Leiter einer Initiative zur Identifizierung und Charakterisierung von Social-Media-Einflusskampagnen. Sein jüngster Artikel „Unmasking the Web of Deceit: Uncovering Cooperative Activity to Expose Information Operations on Twitter“ wurde auf der Webkonferenz am 13. Mai 2024 vorgestellt.

„Mein Team und ich arbeiten seit fünf bis zehn Jahren an der Modellierung und Identifizierung von IO-Treibern wie Bots und Trollen“, sagte Luceri. „In diesem Artikel haben wir unsere Methoden weiterentwickelt, um eine Reihe unbeaufsichtigter und überwachter Modelle für maschinelles Lernen vorzuschlagen, die in der Lage sind, Einflusskampagnen zu erkennen, die in verschiedenen Ländern innerhalb der X-Plattform (ehemals Twitter) orchestriert werden.“

Ein zusammengeführtes Netzwerk ähnlicher Verhaltensweisen

Anhand eines umfassenden Datensatzes von 49 Millionen Tweets aus verifizierten Kampagnen in sechs Ländern (China, Kuba, Ägypten, Iran, Russland und Venezuela) identifizierten Luceri und sein Team fünf Sharing-Verhaltensweisen bei IO-Fahrern.

Dazu gehören Co-Retweet (Teilen identischer Tweets), Co-URL (Teilen derselben Links oder URLs), Hashtag-Sequenz (Verwendung einer identischen Folge von Hashtags in Tweets) und schnelles Retweet (schnelles erneutes Teilen von Inhalten derselben Benutzer). und Textähnlichkeit (Tweets, deren Inhalt Text ähnelt).

Frühere Forschungen konzentrierten sich auf die Erstellung von Netzwerken, die jede Art von Verhalten abbilden und dabei Ähnlichkeiten zwischen einzelnen Benutzern auf genug.

„Wir haben festgestellt, dass Co-Retweet in Kampagnen in Kuba und Venezuela massiv eingesetzt wurde“, erklärte Luceri. „Wenn wir jedoch nur Co-Retweet betrachten und andere Verhaltensweisen nicht berücksichtigen, werden wir gute Ergebnisse bei der Identifizierung einiger Kampagnen erzielen, wie zum Beispiel jene, die aus Kuba und Venezuela stammen, aber schlechte Ergebnisse, wenn Co-Retweet weniger verwendet wurde, wie in der russischen.“ Kampagnen.“

Um ein breiteres Spektrum koordinierter Sharing-Verhaltensweisen zu erfassen, bauten die Forscher ein einheitliches Ähnlichkeitsnetzwerk auf, das als zusammengeführtes Netzwerk bezeichnet wird. Anschließend wandten sie maschinelle Lernalgorithmen an, die auf den topologischen Eigenschaften des zusammengeführten Netzwerks basieren, um die Ähnlichkeiten dieser Konten zu klassifizieren und ihre zukünftige IO-Teilnahme vorherzusagen.

Luceri und sein Team entdeckten, dass diese Methode auf Kampagnen auf der ganzen Welt anwendbar sein könnte. Mehrere X-Benutzer innerhalb derselben Kampagne, unabhängig von ihrer Herkunft, zeigten eine bemerkenswerte kollektive Ähnlichkeit in ihren Aktionen.

„Ich sehe unsere Arbeit als einen Paradigmenwechsel in den Forschungsmethoden, der eine neue Perspektive bei der Identifizierung von Einflusskampagnen und ihren Treibern eröffnet“, sagte Luceri.

Erschließen Sie neue Möglichkeiten

Das unbeaufsichtigte Modell des maschinellen Lernens nutzt bekannte, aber wenig genutzte Netzwerkfunktionen und erreicht eine um 42 % höhere Genauigkeit als andere herkömmliche Ansätze zur Erkennung von Einflusskampagnen. Luceri sieht diesen Artikel als Ausgangspunkt, der den Weg für neue Forschungswege ebnen könnte.

„Wir können Modelle auf die topologischen Merkmale dieses Ähnlichkeitsnetzwerks trainieren und dafür sorgen, dass sie in komplexen Szenarien funktionieren: zum Beispiel, wenn verschiedene Benutzer aus verschiedenen Ländern miteinander interagieren, oder in schwierigeren Situationen, in denen wir ‚begrenzte Informationen zu Kampagnen‘ haben.“ » bemerkte Luceri.

Luceri stellte auf der Webkonferenz außerdem ein weiteres Paper „Leveraging Large Language Models to Detect Influence Campaigns in Social Media“ vor, das im Rahmen des International Workshop on Computational Methods for Discourse Analysis (BeyondFacts’24) mit dem Best Paper Award ausgezeichnet wurde. Der Artikel untersucht das Potenzial des Einsatzes von LLMs zur Erkennung von Anzeichen KI-basierter Einflusskampagnen. Dies ist besonders wichtig im heutigen Klima, in dem von KI erstellte Medien allgegenwärtig sind.

„Diese koordinierten Aktivitäten haben Konsequenzen für das wirkliche Leben“, sagte Luceri. „Sie haben die Macht, Fehlinformationen und Verschwörungstheorien zu verbreiten, die zu Protesten oder Angriffen auf unsere Demokratie führen könnten, wie etwa die Einmischung russischer Trolle in die US-Wahlen 2016.“

Luceri und sein Team sind bestrebt, weiterhin alternative Strategien zu erforschen, um Influencer-Kampagnen zu identifizieren und möglicherweise beeinflusste Benutzer zu schützen.

Mehr Informationen:
Luca Luceri et al., Das Netz der Täuschung entlarven: Aufdeckung koordinierter Aktivitäten zur Aufdeckung von Informationsoperationen auf Twitter, arXiv (2023). DOI: 10.48550/arxiv.2310.09884

Luca Luceri et al., Nutzung großer Sprachmodelle zur Erkennung von Einflusskampagnen in sozialen Medien, arXiv (2023). DOI: 10.48550/arxiv.2311.07816

Zeitschrifteninformationen:
arXiv

Zur Verfügung gestellt von der University of Southern California

Zitat: Erkennung von Einflusskampagnen auf .html

Dieses Dokument unterliegt dem Urheberrecht. Mit Ausnahme der fairen Nutzung für private Studien- oder Forschungszwecke darf kein Teil ohne schriftliche Genehmigung reproduziert werden. Der Inhalt dient lediglich der Information.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *

Failed to fetch data from the URL.