Im Beschluss des Bundespatentgerichts München vom 14.09.2023 (30 W (pat) 15/22) ging es um die Beschwerde einer Anmelderin gegen die Zurückweisung ihrer Markenanmeldung für „NFTNET“ durch das Deutsche Patent- und Markenamt.
Markenanmeldung von „NFTNET“ für Software erfolgreich weiterlesenBlog
Haftung für Chatbot?
Haften Unternehmen für Auskünfte, die ein Ihnen installierter Chatbot gibt? Nachdem in Kanada eine Airline zum Schadensersatz auf Grund einer falschen Chatbot-Auskunft verurteilt wurde, stellt sich die Frage, ob so etwas in Deutschland denkbar ist. Und tatsächlich ist schon zu lesen, dass „vermutlich auch deutsche Gerichte nicht anders entscheiden würden“ (so in BC 2024, 95). Doch bei genauem Blick fragt sich: Auf welcher Rechtsgrundlage soll das geschehen.
Haftung für Chatbot? weiterlesenStudie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien
In der Forschungsarbeit „Assessing the risks and opportunities posed by AI-enhanced influence operations on social media“ von Rolf Fredheim und James Pamment wird ein tiefgreifendes Verständnis für die Risiken und Chancen von KI-gestützten Beeinflussungsoperationen in sozialen Medien dargelegt.
Studie zur Bewertung der Risiken und Chancen von KI-gestützten Beeinflussungsmaßnahmen in sozialen Medien weiterlesenEthik und KI
Im Folgenden möchte ich kurz das Kapitel „Approaches to Ethical AI“ aus dem Open-Access-Buch „Introduction to Digital Humanism“ von Erich Prem vorstellen. Das lesenswerte Kapitel bietet eine umfassende Analyse ethischer Fragestellungen in Bezug auf Künstliche Intelligenz (KI) und legt dar, wie diese Herausforderungen im Rahmen ethischer Rahmenwerke und Leitlinien angegangen werden.
Ethik und KI weiterlesenDer Missbrauch von Generativer KI und großen Sprachmodellen (LLM)
Generative KI verlangt unserer Gesellschaft viel ab: Schon jetzt ist immer weniger das, wonach es aussieht. Man darf (und sollte) weder seinen Ohren noch seinen Augen trauen – und es wird immer einfacher, selbst ohne erhebliche eigene Ressourcen oder technische Fertigkeiten, Angriffsszenarien mithilfe von KI aufzubauen.
Die Analyse „GenAI against humanity: nefarious applications of generative artificial intelligence and large language models“ bietet eine tiefgreifende Analyse der missbräuchlichen Anwendungen von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs). Diese Studie, verfasst von Emilio Ferrara, betrachtet die dunkle Seite dieser Technologien, indem sie verschiedene schädliche Szenarien und deren potenzielle Auswirkungen auf Gesellschaft und Individuen aufzeigt.
Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM) weiterlesenEinsatz von Generativer KI bei Penetrationstests
In dem Forschungsartikel „Generative AI for Pentesting: The Good, The Bad, The Ugly“ wird der Einsatz von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs) im Kontext von Penetrationstests untersucht. Die Studie bietet eine umfassende Analyse der Vorteile, Herausforderungen und Risiken, die mit dem Einsatz von GenAI in der Cybersecurity verbunden sind.
Einsatz von Generativer KI bei Penetrationstests weiterlesenUrheberrechtlicher Schutz von Videospielen
Wann sind Videospiele bzw. Computerspiele urheberrechtlich geschützt: Im Mittelpunkt eines urheberrechtlichen Streits vor dem Landgericht Köln (14 O 441/23; 11. Januar 2024) stand ein Rechtsstreit zwischen zwei Videospiel-Entwicklern. Die Klägerin, ein Entwickler eines populären „Idle Game“-Rennspiels, behauptet, ihr Spielkonzept sei von der Beklagten kopiert worden.
Das Spiel der Klägerin zeichnet sich durch ein spezielles Konzept aus: Vor Rennen werden Spielfiguren trainiert und ausgestattet, die Rennen selbst laufen ohne Spielerintervention ab. Besondere Elemente des Spiels sind unterschiedliche Terrains, Trainingsmöglichkeiten, und eine spezifische Benutzeroberfläche.
Urheberrechtlicher Schutz von Videospielen weiterlesenNeue Wege zur Identifizierung von Bitcoin-finanzierten Cyberkriminalitätsnetzwerken
In einer Welt, in der Bitcoin und andere Kryptowährungen zunehmend von Cyberkriminellen für illegale Aktivitäten genutzt werden, ist es entscheidend, wirksame Methoden zur Aufdeckung und Analyse dieser kriminellen Finanznetzwerke zu entwickeln.
Eine spannende Analyse des IMDEA Software Institute, veröffentlicht im Oktober 2022, präsentiert eine innovative Methode namens „Back-and-Forth Exploration“ zur Nachverfolgung von Bitcoin-Transaktionen. Diese Technik ermöglicht es, finanzielle Beziehungen innerhalb von Cyberkriminalitätskampagnen und zu externen Diensten und anderen kriminellen Kampagnen aufzudecken
Neue Wege zur Identifizierung von Bitcoin-finanzierten Cyberkriminalitätsnetzwerken weiterlesenLarge Language Models (LLM)
Ein LLM, oder „Large Language Model“, ist ein fortschrittliches Computerprogramm, das darauf trainiert ist, menschliche Sprache zu verstehen und zu generieren. LLMs kann man sich wie extrem erfahrene Bibliothekare vorstellen, die in einer riesigen Bibliothek mit einer Unmenge an Büchern und Texten arbeiten. Diese Bibliothekare haben so viele Texte gelesen, dass sie sehr gut darin geworden sind, Fragen zu beantworten, Texte zu schreiben und sogar Gespräche zu führen, die sich fast wie mit einem echten Menschen anfühlen.
Large Language Models (LLM) weiterlesenLLM und OSINT
In der Studie „Evaluation of LLM Chatbots for OSINT-based Cyber Threat Awareness“ von Samaneh Shafee, Alysson Bessani und Pedro M. Ferreira wird detailliert auf die Funktionen von Large Language Models (LLMs) eingegangen, die für Open Source Intelligence (OSINT) im Kontext der Cyberbedrohungserkennung verwendet werden.
Die Autoren untersuchen die Leistungsfähigkeit verschiedener Chatbot-Modelle, darunter ChatGPT, GPT4all, Dolly, Stanford Alpaca, Alpaca-LoRA, Falcon und Vicuna, in Bezug auf binäre Klassifikation und Named Entity Recognition (NER) Aufgaben, die unter Verwendung von OSINT durchgeführt werden.
LLM und OSINT weiterlesen