Studie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien

In der Forschungsarbeit „Assessing the risks and opportunities posed by AI-enhanced influence operations on social media“ von Rolf Fredheim und James Pamment wird ein tiefgreifendes Verständnis für die Risiken und Chancen von KI-gestützten Beeinflussungsoperationen in sozialen Medien dargelegt.

Studie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien weiterlesen

Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM)

Generative KI verlangt unserer Gesellschaft viel ab: Schon jetzt ist immer weniger das, wonach es aussieht. Man darf (und sollte) weder seinen Ohren noch seinen Augen trauen – und es wird immer einfacher, selbst ohne erhebliche eigene Ressourcen oder technische Fertigkeiten, Angriffsszenarien mithilfe von KI aufzubauen.

Die Analyse „GenAI against humanity: nefarious applications of generative artificial intelligence and large language models“ bietet eine tiefgreifende Analyse der missbräuchlichen Anwendungen von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs). Diese Studie, verfasst von Emilio Ferrara, betrachtet die dunkle Seite dieser Technologien, indem sie verschiedene schädliche Szenarien und deren potenzielle Auswirkungen auf Gesellschaft und Individuen aufzeigt.

Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM) weiterlesen

Large Language Models (LLM)

Ein LLM, oder „Large Language Model“, ist ein fortschrittliches Computerprogramm, das darauf trainiert ist, menschliche Sprache zu verstehen und zu generieren. LLMs kann man sich wie extrem erfahrene Bibliothekare vorstellen, die in einer riesigen Bibliothek mit einer Unmenge an Büchern und Texten arbeiten. Diese Bibliothekare haben so viele Texte gelesen, dass sie sehr gut darin geworden sind, Fragen zu beantworten, Texte zu schreiben und sogar Gespräche zu führen, die sich fast wie mit einem echten Menschen anfühlen.

Large Language Models (LLM) weiterlesen

Generative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung

Generative Künstliche Intelligenz (GenAI) hat das Potenzial, den Kampf gegen Korruption zu revolutionieren und die Integrität in der Regierung zu stärken. Der OECD-Bericht „Generative AI for Anti-Corruption and Integrity in Government“ beleuchtet die Chancen und Herausforderungen der Nutzung von GenAI und großen Sprachmodellen (LLMs) durch Regierungsakteure, die sich der Integrität und Korruptionsbekämpfung widmen. In diesem Beitrag werden die wichtigsten Erkenntnisse des Berichts vorgestellt.

Generative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung weiterlesen

Neue Forschungserkenntnisse zur Autonomen Website-Hackfähigkeit von LLMs

Eine bahnbrechende Forschungsarbeit mit dem Titel „LLM Agents can Autonomously Hack Websites“ offenbart, wie fortgeschrittene große Sprachmodelle (LLMs), insbesondere GPT-4, autonom Websites hacken können. Dieses Potenzial wird durch die Fähigkeit der Modelle unterstrichen, ohne menschliches Feedback komplexe Aufgaben wie Blinddatenbankschema-Extraktion und SQL-Injections durchzuführen.

Neue Forschungserkenntnisse zur Autonomen Website-Hackfähigkeit von LLMs weiterlesen

Die Kehrseite der KI-gestützten Softwareentwicklung

Die rasante Entwicklung von KI-Werkzeugen wie GitHub Copilot hat die Art und Weise, wie Code geschrieben wird, revolutioniert. Entwickler können dank dieser Tools schneller codieren, was laut GitHub die Codierung um 55% beschleunigt und zu einer enormen Steigerung der Codeproduktion führt.

Diese Entwicklung scheint auf den ersten Blick nur Vorteile zu bringen, darunter eine massive Zeitersparnis und eine Erhöhung des geschriebenen Codes um 46%. Doch eine aktuelle Studie von GitClear wirft nun ein kritisches Licht auf die langfristigen Auswirkungen dieser Technologien auf die Codequalität und Wartbarkeit.

Die Kehrseite der KI-gestützten Softwareentwicklung weiterlesen

Cyberkriminalität in Nordkorea und die Bedrohung der Kryptowährungsindustrie

Nordkorea ist einer der Hauptverantwortlichen für die zunehmende Bedrohung der Cybersicherheit. Spätestens seit dem Angriff auf Sony Pictures im Jahr 2014 wird das Land als wichtiger Cyber-Akteur auf der internationalen Bühne wahrgenommen. Seitdem hat Pjöngjang seine Hackerfähigkeiten genutzt, um internationale Sanktionen zu umgehen und Gelder zu stehlen.

Mit den erbeuteten Geldern konnte Pjöngjang die Entwicklung seines Atom- und Raketenprogramms finanzieren. Nordkorea nutzt Cyberoperationen auch zur (digitalen) Spionage. Die Ziele sind breit gefächert: Sie richten sich unter anderem gegen Universitäten, Menschenrechtsorganisationen und Medienunternehmen, erzeugen Unzufriedenheit oder Misstrauen durch Wahlbetrug und greifen kritische nationale Infrastrukturen an. Die zunehmende Bedeutung Nordkoreas im Bereich Cybercrime und Cybersecurity ist auch der Grund, warum wir hier einen eigenen Blog-Post zu dem Thema pflegen.

Als Beispiel sei hier eine Studie der Insikt Group von Recorded Future aufgegriffen, die ein alarmierendes Bild der nordkoreanischen Cyberkriminalität zeichnet. Diese Aktivitäten, die seit 2017 zugenommen haben, zielen auf die Kryptowährungsindustrie ab und haben es Nordkorea ermöglicht, geschätzte 3 Milliarden Dollar an Kryptowährungen zu stehlen.

Cyberkriminalität in Nordkorea und die Bedrohung der Kryptowährungsindustrie weiterlesen

Generative Künstliche Intelligenz im Finanzwesen

Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat in den letzten Jahren zu bedeutenden Fortschritten in verschiedenen Bereichen geführt, einschließlich des Finanzwesens. Besonders bemerkenswert ist die Entstehung generativer Künstlicher Intelligenz (GenAI), die Inhalte wie Texte, Bilder und sogar Audio erzeugen kann.

Das OECD-Papier „Generative Artificial Intelligence in Finance“ beleuchtet die Anwendungsmöglichkeiten von GenAI im Finanzsektor, analysiert die damit verbundenen Risiken und diskutiert politische Implikationen. In diesem Beitrag werden die wesentlichen Punkte des Berichts vorgestellt.

Generative Künstliche Intelligenz im Finanzwesen weiterlesen

Erläuterndes OECD-Papier zur aktualisierten OECD-Definition eines KI-Systems

Mit der rasanten Entwicklung der Künstlichen Intelligenz (KI) und ihrer wachsenden Bedeutung in verschiedenen Bereichen hat die OECD ihre Definition eines KI-Systems aktualisiert.

Das Papier „Explanatory Memorandum on the Updated OECD Definition of an AI System“, veröffentlicht im März 2024, erläutert die Änderungen und bietet eine detaillierte technische Hintergrundinformation zur neuen Definition. Dieser Beitrag fasst die wichtigsten Punkte der Denkschrift zusammen und beleuchtet die Bedeutung der neuen Definition für die Praxis.

Erläuterndes OECD-Papier zur aktualisierten OECD-Definition eines KI-Systems weiterlesen