Der Generalanwalt beim EUGH konnte nun endlich seine Stellungnahme abgeben zu der Frage, ob eine Cheat-Software urheberrechtlich zulässig ist (EUGH, C‑159/23). Der Fall ist extrem spannend und wird deutliche Auswirkungen auf die Spielebranche haben.
Generalanwalt beim EUGH zur Zulässigkeit von Cheat-Software weiterlesenBlog
Checkliste Chatbot: Datenschutzrechtliche Voraussetzungen für den Betrieb eines Chatbots
Was braucht man für eine „Checkliste Chatbot“: In der heutigen digitalen Welt haben Chatbots eine immer größere Bedeutung erlangt. Sie sind in der Lage, Kundenanfragen rund um die Uhr zu beantworten und Prozesse zu automatisieren, was sowohl Unternehmen als auch Kunden viele Vorteile bringt.
Allerdings bringt der Einsatz von Chatbots, insbesondere solchen, die auf großen Sprachmodellen (LLMs) wie ChatGPT basieren, erhebliche datenschutzrechtliche Herausforderungen mit sich. Datenschutz ist in diesem Kontext besonders wichtig, weil Chatbots oft mit personenbezogenen Daten interagieren und diese verarbeiten. Die Einhaltung der Datenschutz-Grundverordnung (DSGVO) ist daher unerlässlich, um rechtliche Konsequenzen zu vermeiden und das Vertrauen der Nutzer zu sichern.
Checkliste Chatbot: Datenschutzrechtliche Voraussetzungen für den Betrieb eines Chatbots weiterlesenLLM-Hacking: Ein Überblick über Angriffstechniken und -szenarien
Das sogenannte „LLM-Hacking“ bezieht sich auf Techniken und Strategien, um diese Modelle zu manipulieren oder ihre Funktionen auf unvorhergesehene Weise zu nutzen.
Große Sprachmodelle sind in gewisser Hinsicht besonders gefahrgeneigt, weil diese versuchen autonom zu agieren und dabei notwendigerweise auf Eingaben von Außen angewiesen sind: Mal durch die Aufgaben, die ihnen erteilt werden, mal durch Daten, mit denen sie gefüttert werden. Die zunehmende Verbreitung von LLM sollte dabei Anlass sein, sich mit grundsätzlichem Wissen zur Cybersicherheit bei LLM auseinanderzusetzen. Im Folgenden möchte ich darum als Einstieg verständlich darauf eingehen, was LLM-Hacking ist und typische Angriffsszenarien beschreiben.
Künstliche Intelligenz und industrielle Arbeit
Die Integration von Künstlicher Intelligenz (KI) in die industrielle Arbeit steht im Zentrum einer umfassenden Expertise des Forschungsbeirats Industrie 4.0. Diese Analyse beleuchtet die aktuelle Situation, Herausforderungen und zukünftige Gestaltungsoptionen. Basierend auf einer Literaturrecherche, Interviews und Workshops mit Fachleuten, bietet die Expertise wertvolle Einblicke in den Stand der Technik und die Auswirkungen von KI auf die Arbeitswelt.
Künstliche Intelligenz und industrielle Arbeit weiterlesenKI-Konvention des Europarats
Die rasanten Entwicklungen in der künstlichen Intelligenz (KI) haben nicht nur technologische Fortschritte, sondern auch zahlreiche rechtliche und ethische Herausforderungen mit sich gebracht. Vor diesem Hintergrund hat der Europarat die „Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law“ verabschiedet.
Diese Konvention zielt darauf ab, die Aktivitäten im Lebenszyklus von KI-Systemen in Einklang mit den Menschenrechten, der Demokratie und der Rechtsstaatlichkeit zu bringen. In diesem Beitrag wird die KI-Konvention des Europarats detailliert vorgestellt und ihre Bedeutung für den Schutz der Grundrechte und die Förderung verantwortungsvoller Innovation erläutert.
KI-Konvention des Europarats weiterlesenAlgorithmische Entscheidungen
In einer zunehmend technologiegestützten Welt ist es von großer Bedeutung, die Wahrnehmung und Präferenz von Entscheidungen durch Algorithmen im Vergleich zu menschlichen Entscheidungsträgern zu verstehen.
Die Forschungsarbeit „Ruled by Robots: Preference for Algorithmic Decision Makers and Perceptions of Their Choices“ von Marina Chugunova und Wolfgang J. Luhan, veröffentlicht im März 2022, untersucht diese Thematik mittels eines Laborexperiments. Im Fokus stehen dabei Umverteilungsentscheidungen und die Frage, ob Menschen Algorithmen aufgrund ihrer Unvoreingenommenheit gegenüber menschlichen Entscheidungsträgern bevorzugen.
Algorithmische Entscheidungen weiterlesenVersprechen und Fallstricke von KI in der juristischen Praxis
Künstliche Intelligenz (KI) hat das Potenzial, viele Bereiche unseres Lebens zu revolutionieren, einschließlich der juristischen Praxis. Eine aktuelle Studie, veröffentlicht in der „Journal of Cross-disciplinary Research in Computational Law“, beleuchtet die vielversprechenden Möglichkeiten und die Herausforderungen, die der Einsatz von KI in juristischen Anwendungen mit sich bringt.
Versprechen und Fallstricke von KI in der juristischen Praxis weiterlesenEmpirische Studie über ChatGPT-Antworten auf Stack Overflow Fragen
In einer durchgeführten Studie werden die Merkmale von ChatGPT-Antworten auf Programmierfragen auf Stack Overflow untersucht. Die Studie beleuchtet die Richtigkeit, Konsistenz, Umfassendheit und Knappheit der Antworten und bietet Einblicke in die linguistischen Merkmale und menschlichen Wahrnehmungen dieser automatisierten Antworten im Vergleich zu menschlichen Antworten.
Empirische Studie über ChatGPT-Antworten auf Stack Overflow Fragen weiterlesenReduktion von Halluzinationen in strukturierten Ausgaben durch datenbasierte Generierung
Halluzinationen in der Ausgabe von Generativen KI-Systemen (GenAI) stellen ein erhebliches Problem dar, insbesondere wenn es um die Erstellung von Arbeitsabläufen aus natürlichsprachlichen Anforderungen geht.
Eine aktuelle Studie präsentiert eine innovative Lösung, um die Qualität strukturierter Ausgaben durch den Einsatz von datenbasierter Generierung (Retrieval-Augmented Generation, RAG) zu verbessern. Dieser Ansatz nicht nur reduziert Halluzinationen erheblich, sondern ermöglicht auch die Generalisierung von großen Sprachmodellen (LLMs) für Anwendungsfälle außerhalb ihres ursprünglichen Trainingsbereichs.
Reduktion von Halluzinationen in strukturierten Ausgaben durch datenbasierte Generierung weiterlesenHalluzination ist unvermeidlich: Eine angeborene Einschränkung von großen Sprachmodellen
Große Sprachmodelle (LLMs) haben die Welt der künstlichen Intelligenz, insbesondere die Verarbeitung natürlicher Sprache, revolutioniert. Sie bieten umfangreiche Wissensdatenbanken und können kohärente, kontextbezogene Texte generieren, was sie zu einem wertvollen Werkzeug in Forschung, Industrie und Gesellschaft macht.
Ein wesentliches Problem dieser Modelle ist jedoch die „Halluzination“ – die Generierung plausibler, aber faktisch inkorrekter oder unsinniger Informationen. Eine Studie beleuchtet, warum Halluzinationen ein unvermeidliches Merkmal von LLMs sind und welche praktischen Implikationen dies hat.
Halluzination ist unvermeidlich: Eine angeborene Einschränkung von großen Sprachmodellen weiterlesen