Im digitalen Zeitalter, in dem Cloud-Dienste zunehmend an Bedeutung gewinnen, stellt Software as a Service (SaaS) eine bedeutende Facette dar. Im Folgenden geht es um die rechtlichen Nuancen, die sowohl Anbieter als auch Nutzer von SaaS-Lösungen beachten sollten, speziell mit Blick auf „KI as a Service“ (KIaaS).
Rechtliche Besonderheiten bei Software as a Service (SaaS) Verträgen- speziell KIaaS weiterlesenSchlagwort: Datenschutz
BSI zu Chancen und Risiken generativer KI
Im Folgenden soll eine aktuelle Publikation des Bundesamts für Sicherheit in der Informationstechnik (BSI) vorgestellt werden, die sich mit den Chancen und Risiken großer Sprachmodelle befasst. Diese KI-Modelle, bekannt als Large Language Models (LLMs), sind in der Lage, auf der Basis von trainierten Daten neue Texte, Bilder und andere Inhalte zu generieren. Ihre vielseitige Einsetzbarkeit bietet zahlreiche Möglichkeiten für Industrie und Behörden, birgt jedoch auch neue IT-Sicherheitsrisiken.
BSI zu Chancen und Risiken generativer KI weiterlesenHaftung für Chatbot?
Haften Unternehmen für Auskünfte, die ein Ihnen installierter Chatbot gibt? Nachdem in Kanada eine Airline zum Schadensersatz auf Grund einer falschen Chatbot-Auskunft verurteilt wurde, stellt sich die Frage, ob so etwas in Deutschland denkbar ist. Und tatsächlich ist schon zu lesen, dass „vermutlich auch deutsche Gerichte nicht anders entscheiden würden“ (so in BC 2024, 95). Doch bei genauem Blick fragt sich: Auf welcher Rechtsgrundlage soll das geschehen.
Haftung für Chatbot? weiterlesenDer Missbrauch von Generativer KI und großen Sprachmodellen (LLM)
Generative KI verlangt unserer Gesellschaft viel ab: Schon jetzt ist immer weniger das, wonach es aussieht. Man darf (und sollte) weder seinen Ohren noch seinen Augen trauen – und es wird immer einfacher, selbst ohne erhebliche eigene Ressourcen oder technische Fertigkeiten, Angriffsszenarien mithilfe von KI aufzubauen.
Die Analyse „GenAI against humanity: nefarious applications of generative artificial intelligence and large language models“ bietet eine tiefgreifende Analyse der missbräuchlichen Anwendungen von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs). Diese Studie, verfasst von Emilio Ferrara, betrachtet die dunkle Seite dieser Technologien, indem sie verschiedene schädliche Szenarien und deren potenzielle Auswirkungen auf Gesellschaft und Individuen aufzeigt.
Der Missbrauch von Generativer KI und großen Sprachmodellen (LLM) weiterlesenEinsatz von Generativer KI bei Penetrationstests
In dem Forschungsartikel „Generative AI for Pentesting: The Good, The Bad, The Ugly“ wird der Einsatz von Generativer Künstlicher Intelligenz (GenAI) und Großen Sprachmodellen (LLMs) im Kontext von Penetrationstests untersucht. Die Studie bietet eine umfassende Analyse der Vorteile, Herausforderungen und Risiken, die mit dem Einsatz von GenAI in der Cybersecurity verbunden sind.
Einsatz von Generativer KI bei Penetrationstests weiterlesenGenerative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung
Generative Künstliche Intelligenz (GenAI) hat das Potenzial, den Kampf gegen Korruption zu revolutionieren und die Integrität in der Regierung zu stärken. Der OECD-Bericht „Generative AI for Anti-Corruption and Integrity in Government“ beleuchtet die Chancen und Herausforderungen der Nutzung von GenAI und großen Sprachmodellen (LLMs) durch Regierungsakteure, die sich der Integrität und Korruptionsbekämpfung widmen. In diesem Beitrag werden die wichtigsten Erkenntnisse des Berichts vorgestellt.
Generative Künstliche Intelligenz für Korruptionsbekämpfung und Integrität in der Regierung weiterlesenEinsatz von Künstlicher Intelligenz am Arbeitsplatz – Chancen, Risiken und politische Antworten
Der rasante Fortschritt der Künstlichen Intelligenz (KI) hat die Arbeitswelt grundlegend verändert. Der Bericht „Using AI in the Workplace: Opportunities, Risks and Policy Responses“ der OECD bietet einen umfassenden Überblick über die Chancen und Risiken, die mit dem Einsatz von KI am Arbeitsplatz einhergehen, und gibt Empfehlungen für politische Maßnahmen. In diesem Beitrag werden die wesentlichen Erkenntnisse und politischen Implikationen des Berichts vorgestellt.
Einsatz von Künstlicher Intelligenz am Arbeitsplatz – Chancen, Risiken und politische Antworten weiterlesenRobotic Process Automation (RPA)
Robotic Process Automation (RPA) ist eine fortschrittliche Technologie, die darauf abzielt, menschliche Interaktionen in Geschäftsprozessen zu simulieren. Dabei handelt es sich um Software-Roboter oder „Bots“, die sich wiederholende und zeitintensive Aufgaben durchführen, welche zuvor von Menschen ausgeführt wurden. Diese Bots können lernen, sich anpassen und sogar komplexe Entscheidungen treffen.
Robotic Process Automation (RPA) weiterlesenUN-Resolution zu Künstlicher Intelligenz
Globale Einigung zu KI-Regulierungen: Die Vereinten Nationen haben am 21.03.2024 in einer Resolution bahnbrechende Regelungen zur Nutzung von Künstlicher Intelligenz (KI) beschlossen. Die Resolution „Seizing the opportunities of safe, secure and trustworthy artificial intelligence systems for sustainable development“ (A/78/L.49) stellt einen Meilenstein in der globalen Regulierung von KI dar und zielt darauf ab, die positiven Potenziale der KI für nachhaltige Entwicklung zu nutzen und gleichzeitig Risiken zu minimieren.
UN-Resolution zu Künstlicher Intelligenz weiterlesenEuGH-Urteil: Datenverantwortung bei der Softwareentwicklung
Die Rechtssache C‑683/21 des EUGH beschäftigt sich mit der Frage der Verantwortung bei der Entwicklung einer mobilen IT-Anwendung, speziell im Kontext des Datenschutzes.
EuGH-Urteil: Datenverantwortung bei der Softwareentwicklung weiterlesen