Der Generalanwalt beim EUGH konnte nun endlich seine Stellungnahme abgeben zu der Frage, ob eine Cheat-Software urheberrechtlich zulässig ist (EUGH, C‑159/23). Der Fall ist extrem spannend und wird deutliche Auswirkungen auf die Spielebranche haben.
Generalanwalt beim EUGH zur Zulässigkeit von Cheat-Software weiterlesenSchlagwort: Auftragsverarbeitung
LLM-Hacking: Ein Überblick über Angriffstechniken und -szenarien
Das sogenannte „LLM-Hacking“ bezieht sich auf Techniken und Strategien, um diese Modelle zu manipulieren oder ihre Funktionen auf unvorhergesehene Weise zu nutzen.
Große Sprachmodelle sind in gewisser Hinsicht besonders gefahrgeneigt, weil diese versuchen autonom zu agieren und dabei notwendigerweise auf Eingaben von Außen angewiesen sind: Mal durch die Aufgaben, die ihnen erteilt werden, mal durch Daten, mit denen sie gefüttert werden. Die zunehmende Verbreitung von LLM sollte dabei Anlass sein, sich mit grundsätzlichem Wissen zur Cybersicherheit bei LLM auseinanderzusetzen. Im Folgenden möchte ich darum als Einstieg verständlich darauf eingehen, was LLM-Hacking ist und typische Angriffsszenarien beschreiben.
LLM-Hacking: Ein Überblick über Angriffstechniken und -szenarien weiterlesenDatenschutzrecht und Künstliche Intelligenz: Herausforderungen und Lösungsansätze
Die Integration von Künstlicher Intelligenz (KI) in zahlreiche Lebensbereiche bringt immense Vorteile mit sich, stellt aber auch erhebliche Herausforderungen im Bereich des Datenschutzrechts dar. Insbesondere die Datenschutz-Grundverordnung (DSGVO) spielt eine entscheidende Rolle bei der rechtlichen Regulierung von KI-Anwendungen.
Mein Beitrag versucht verständlich und nicht zu juristisch – übrigens im Rahmen unserer Reihe zu den rechtlichen Grundlagen bei Entwicklung und Einsatz von KI – die wesentlichen Anforderungen und praktischen Lösungen, um KI datenschutzkonform zu implementieren und zu betreiben.
Datenschutzrecht und Künstliche Intelligenz: Herausforderungen und Lösungsansätze weiterlesenStudien zum Einsatz von LLM im juristischen Kontext
In den letzten Jahren haben Large Language Models (LLMs) erheblichen Einfluss auf viele Bereiche, einschließlich des Rechtswesens, genommen. Zwei kürzlich veröffentlichte Studien beleuchten die Verwendung von LLMs im juristischen Kontext, ihre Potenziale und die damit verbundenen Risiken.
Dieser Beitrag gibt einen Überblick über die Studien „Reliability of Leading AI Legal Research Tools“ und „Large Legal Fictions“, fasst die wesentlichen Erkenntnisse zusammen und diskutiert die Gefahren sowie Empfehlungen für den Einsatz von KI im juristischen Bereich.
Studien zum Einsatz von LLM im juristischen Kontext weiterlesenErkenntnisse über die menschliche Fähigkeit KI-generierte Medien zu identifizieren
KI-generierte Medien werden zu einer zunehmenden Herausforderung: Sie können in großem Maßstab automatisch erstellt werden, was zu einer Vielzahl von Fälschungen oder fehlerhaften Inhalten führt – zugleich aber können Sie das Erstellen von Inhalten drastisch unterstützen.
Trotz zahlreicher technischer Fortschritte bei der automatischen Erkennung solcher künstlichen Medien wurde die menschliche Wahrnehmung dieser Medien bisher nicht ausreichend untersucht. Dabei mehren sich (aus gutem Grund) inzwischen die Forschungspapiere zu der Frage, wie gut Menschen in der Lage sind, KI-generierte Inhalte zu erkennen.
Erkenntnisse über die menschliche Fähigkeit KI-generierte Medien zu identifizieren weiterlesenMenschliche Verzerrungen in künstlichen Intelligenzen: Soziale Erwünschtheit in großen Sprachmodellen
Eine ganz neue Studie beleuchtet eine faszinierende Facette großer Sprachmodelle (LLMs): die Tendenz, sozial erwünschte Antworten zu generieren, wenn sie Persönlichkeitsumfragen ausgesetzt sind. Diese Erkenntnisse sind besonders relevant, da LLMs zunehmend dazu verwendet werden, menschliches Verhalten in simulierten Umgebungen nachzuahmen.
Menschliche Verzerrungen in künstlichen Intelligenzen: Soziale Erwünschtheit in großen Sprachmodellen weiterlesenRisiken von PII-Leckagen beim Feintuning von GPT-3
Im Zuge der rasanten Entwicklung von Künstlicher Intelligenz (KI) und maschinellem Lernen stehen immer mehr leistungsstarke Modelle zur Verfügung, die auf spezifische Aufgaben zugeschnitten werden können. Ein prominentes Beispiel ist OpenAI’s GPT-3, ein generatives vortrainiertes Modell, das durch Feintuning an individuelle Anwendungsfälle angepasst werden kann.
Trotz der Vorteile dieser Anpassungen gibt es bedeutende Bedenken hinsichtlich der Sicherheit und des Datenschutzes, insbesondere im Hinblick auf das Risiko der Offenlegung personenbezogener Daten (PII). Eine aktuelle Forschungsarbeit untersucht diese Problematik eingehend.
Risiken von PII-Leckagen beim Feintuning von GPT-3 weiterlesenEntwicklung von Software mit KI
Der Einsatz künstlicher Intelligenz (KI) in der Softwareentwicklung bietet sowohl erhebliche Chancen als auch potenzielle Herausforderungen.
Eine qualitative Studie von Charles Collins und Kémaël Josua Kauppaymuthoo an der Lund University hat die Perspektiven von Softwareentwicklern zur Adoption von KI-Technologien in ihrem Arbeitsfeld untersucht. Diese Studie liefert wichtige Einblicke in die emotionalen und praktischen Auswirkungen, die KI auf die Softwareentwicklung hat.
Entwicklung von Software mit KI weiterlesenSchutz von KI
Kann künstliche Intelligenz als solche rechtlich geschützt werden? Die Frage ist keineswegs trivial – und von erheblicher wirtschaftlicher Bedeutung: Die rechtliche Problematik und Notwendigkeit des Schutzes von Datensätzen in diesem Zusammenhang liegt auf der Hand.
In einer digitalisierten Wirtschaft, in der Daten zunehmend als wertvolles Wirtschaftsgut betrachtet werden, ist der rechtliche Schutz z.B. von Datenbeständen, aber auch von Software, die mit diesen Daten arbeitet, von entscheidender Bedeutung. Nur so kann aus hiesiger Sicht die Frage der Schutzfähigkeit von KI durch eine getrennte Betrachtung von Datenbeständen und Software beantwortet werden.
Schutz von KI weiterlesenWissenskollaps durch KI?
Droht ein Wissenskollaps? In einer modernen, von DIgitalisierung durchdrungenden, Welt, in der künstliche Intelligenz (KI) immer mehr an Bedeutung gewinnt, stehen wir vor erheblichen Veränderungen in der Art & Weise, wie Wissen generiert, genutzt und verbreitet wird. Ich widme mich im Blog dieser Thematik hin und wieder, weil es sowohl gesellschaftliche Auswirkungen insgesamt hat, aber eben auch gravierende Bedeutung für „Wissens-Dienstleister“ wie Anwälte hat.
Eine kürzlich durchgeführte Studie von Andrew J. Peterson von der Universität Poitiers hebt nun besorgniserregende Aspekte im Zusammenhang mit der weitverbreiteten Nutzung von KI, insbesondere von großen Sprachmodellen (LLMs), hervor: Er sieht das erhebliche Risiko eines durch KI provozierten Wissenskollapses!
Wissenskollaps durch KI? weiterlesen