Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM)

Generative KI verlangt unserer Gesellschaft viel ab: Schon jetzt ist immer weniger das, wonach es aussieht. Man darf (und sollte) weder seinen Ohren noch seinen Augen trauen – und es wird immer einfacher, selbst ohne erhebliche eigene Ressourcen oder technische Fertigkeiten, Angriffsszenarien mithilfe von KI aufzubauen.

Die Analyse „GenAI against humanity: nefarious applications of generative artificial intelligence and large language models“ bietet eine tiefgreifende Analyse der missbräuchlichen Anwendungen von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs). Diese Studie, verfasst von Emilio Ferrara, betrachtet die dunkle Seite dieser Technologien, indem sie verschiedene schädliche Szenarien und deren potenzielle Auswirkungen auf Gesellschaft und Individuen aufzeigt.

Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM) weiterlesen

Einsatz von Generativer KI bei Penetrationstests

In dem Forschungsartikel „Generative AI for Pentesting: The Good, The Bad, The Ugly“ wird der Einsatz von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs) im Kontext von Penetrationstests untersucht. Die Studie bietet eine umfassende Analyse der Vorteile, Herausforderungen und Risiken, die mit dem Einsatz von GenAI in der Cybersecurity verbunden sind.

Einsatz von Generativer KI bei Penetrationstests weiterlesen

Neue Wege zur Identifizierung von Bitcoin-finanzierten Cyberkriminalitätsnetzwerken

In einer Welt, in der Bitcoin und andere Kryptowährungen zunehmend von Cyberkriminellen für illegale Aktivitäten genutzt werden, ist es entscheidend, wirksame Methoden zur Aufdeckung und Analyse dieser kriminellen Finanznetzwerke zu entwickeln.

Eine spannende Analyse des IMDEA Software Institute, veröffentlicht im Oktober 2022, präsentiert eine innovative Methode namens „Back-and-Forth Exploration“ zur Nachverfolgung von Bitcoin-Transaktionen. Diese Technik ermöglicht es, finanzielle Beziehungen innerhalb von Cyberkriminalitätskampagnen und zu externen Diensten und anderen kriminellen Kampagnen aufzudecken

Neue Wege zur Identifizierung von Bitcoin-finanzierten Cyberkriminalitätsnetzwerken weiterlesen

Large Language Models (LLM)

Ein LLM, oder „Large Language Model“, ist ein fortschrittliches Computerprogramm, das darauf trainiert ist, menschliche Sprache zu verstehen und zu generieren. LLMs kann man sich wie extrem erfahrene Bibliothekare vorstellen, die in einer riesigen Bibliothek mit einer Unmenge an Büchern und Texten arbeiten. Diese Bibliothekare haben so viele Texte gelesen, dass sie sehr gut darin geworden sind, Fragen zu beantworten, Texte zu schreiben und sogar Gespräche zu führen, die sich fast wie mit einem echten Menschen anfühlen.

Large Language Models (LLM) weiterlesen

LLM und OSINT

In der Studie „Evaluation of LLM Chatbots for OSINT-based Cyber Threat Awareness“ von Samaneh Shafee, Alysson Bessani und Pedro M. Ferreira wird detailliert auf die Funktionen von Large Language Models (LLMs) eingegangen, die für Open Source Intelligence (OSINT) im Kontext der Cyberbedrohungserkennung verwendet werden.

Die Autoren untersuchen die Leistungsfähigkeit verschiedener Chatbot-Modelle, darunter ChatGPT, GPT4all, Dolly, Stanford Alpaca, Alpaca-LoRA, Falcon und Vicuna, in Bezug auf binäre Klassifikation und Named Entity Recognition (NER) Aufgaben, die unter Verwendung von OSINT durchgeführt werden.

LLM und OSINT weiterlesen

Großmodelle Natürlicher Sprachen (LLMs) im Cybersicherheitskontext

In der Welt der Cybersicherheit, die sich ständig weiterentwickelt und mit neuen Herausforderungen konfrontiert sieht, stellt der Einsatz von Großmodellen natürlicher Sprachen (LLMs) eine innovative Entwicklung dar. Eine Studie von Gabriel de Jesus Coelho da Silva und Carlos Becker Westphall an der Universida de Federal de Santa Catarina untersucht, wie LLMs im Bereich der Cybersicherheit eingesetzt werden können, welche Methoden dabei angewendet werden und wo diese Modelle ihre Stärken und Grenzen haben.

Großmodelle Natürlicher Sprachen (LLMs) im Cybersicherheitskontext weiterlesen

Generative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung

Generative Künstliche Intelligenz (GenAI) hat das Potenzial, den Kampf gegen Korruption zu revolutionieren und die Integrität in der Regierung zu stärken. Der OECD-Bericht „Generative AI for Anti-Corruption and Integrity in Government“ beleuchtet die Chancen und Herausforderungen der Nutzung von GenAI und großen Sprachmodellen (LLMs) durch Regierungsakteure, die sich der Integrität und Korruptionsbekämpfung widmen. In diesem Beitrag werden die wichtigsten Erkenntnisse des Berichts vorgestellt.

Generative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung weiterlesen

Einsatz von Künstlicher Intelligenz am Arbeitsplatz – Chancen, Risiken und politische Antworten

Der rasante Fortschritt der Künstlichen Intelligenz (KI) hat die Arbeitswelt grundlegend verändert. Der Bericht „Using AI in the Workplace: Opportunities, Risks and Policy Responses“ der OECD bietet einen umfassenden Überblick über die Chancen und Risiken, die mit dem Einsatz von KI am Arbeitsplatz einhergehen, und gibt Empfehlungen für politische Maßnahmen. In diesem Beitrag werden die wesentlichen Erkenntnisse und politischen Implikationen des Berichts vorgestellt.

Einsatz von Künstlicher Intelligenz am Arbeitsplatz – Chancen, Risiken und politische Antworten weiterlesen

UN-Resolution zu Künstlicher Intelligenz

Globale Einigung zu KI-Regulierungen: Die Vereinten Nationen haben am 21.03.2024 in einer Resolution bahnbrechende Regelungen zur Nutzung von Künstlicher Intelligenz (KI) beschlossen. Die Resolution „Seizing the opportunities of safe, secure and trustworthy artificial intelligence systems for sustainable development“ (A/78/L.49) stellt einen Meilenstein in der globalen Regulierung von KI dar und zielt darauf ab, die positiven Potenziale der KI für nachhaltige Entwicklung zu nutzen und gleichzeitig Risiken zu minimieren.

UN-Resolution zu Künstlicher Intelligenz weiterlesen

Entscheidung des Arbeitsgerichts Hamburg zum Einsatz von KI-Systemen wie ChatGPT im Arbeitsumfeld

Rechtsstreit um KI-Nutzung in der Arbeitswelt: In einem bemerkenswerten Beschluss (Aktenzeichen 24 BVGa 1/24) vom 16. Januar 2024 hat das Arbeitsgericht Hamburg eine Entscheidung zur Nutzung von künstlicher Intelligenz, speziell von Systemen wie ChatGPT, am Arbeitsplatz getroffen. Der Fall wirft ein Licht auf die rechtlichen Herausforderungen und Auswirkungen der KI-Nutzung in der Arbeitswelt.

Entscheidung des Arbeitsgerichts Hamburg zum Einsatz von KI-Systemen wie ChatGPT im Arbeitsumfeld weiterlesen