Kontroversen um Minnesotas Gesetz zur Deepfake-Technologie
Eine föderale Klage ist in Minnesota aufgekommen, die sich auf das staatliche Gesetz zur Nutzung von Deepfake-Technologie zur Beeinflussung von Wahlen konzentriert. Befürworter und Gegner des Gesetzes stehen nun im Konflikt, insbesondere hinsichtlich der Auswirkungen von Künstlicher Intelligenz (KI) auf juristische Dokumente.
Vorwürfe über KI-generierte Texte in juristischen Einreichungen
Berichte des Minnesota Reformers deuten darauf hin, dass die eidesstattliche Erklärung, die das Gesetz unterstützt, Elemente von KI-generierten Inhalten enthalten könnte, was Fragen zu ihrer Authentizität aufwirft. Anwälte, die gegen das Gesetz vorgehen, wiesen darauf hin, dass die Einreichung, verfasst von Jeff Hancock, dem Gründungsdirektor des Stanford Social Media Lab, Zitationen enthält, die nicht existieren, was auf KI-Halluzinationen hinweist – Fehlinformationen, die typischerweise von Sprachmodellen wie ChatGPT erzeugt werden.
Fragwürdige Zitationen in Hancocks eidesstattlicher Erklärung
Unter den Behauptungen in Hancocks eidesstattlicher Erklärung befindet sich ein Verweis auf eine angeblich 2023 veröffentlichte Studie im Journal of Information Technology & Politics mit dem Titel "Der Einfluss von Deepfake-Videos auf politische Einstellungen und Verhalten." Untersuchungen zeigen jedoch, dass es keine Aufzeichnungen gibt, die auf das Vorhandensein dieser Studie in einer akademischen Veröffentlichung hinweisen.
Eine weitere genannte Quelle, „Deepfakes und die Illusion von Authentizität: Kognitive Prozesse hinter der Akzeptanz von Fehlinformationen“, hat sich ebenfalls als nicht existent herausgestellt. Das Fehlen dieser Quellen wirft Fragen zur Integrität der eidesstattlichen Erklärung auf.
Unmittelbare Auswirkungen auf die rechtlichen Proceedings
Angesichts dieser Entwicklungen argumentieren die Kläger, zu denen die Minnesota State Representative Mary Franson und der konservative YouTuber Christopher Khols (bekannt als Mr. Reagan) gehören, dass Hancocks Erklärung möglicherweise die rechtlichen Proceedings gefährdet. Sie betonten, dass das Dokument an methodischer Strenge und analytischer Logik mangelt.
Die Anwälte, die Franson und Khols vertreten, erklärten: „Die Zitation trägt die Merkmale einer künstlichen Intelligenz (KI) ‚Halluzination‘, was darauf hindeutet, dass zumindest die Zitation von einem großen Sprachmodell wie ChatGPT erzeugt wurde.“ Diese Argumentation stellt nicht nur Hancocks eidesstattliche Erklärung in Frage, sondern auch die weitreichenderen ethischen Implikationen im Zusammenhang mit der Verwendung von KI-generierten Inhalten in juristischen Kontexten.
Kontakt und Kommentare
The Verge hat versucht, Hancock für Kommentare zu diesem Thema zu kontaktieren, aber es wurde keine Antwort erhalten.
Die breiteren Implikationen von KI in rechtlichen Rahmenbedingungen
Dieses sich entwickelnde Szenario unterstreicht die wachsende Schnittstelle zwischen KI-Technologie und rechtlichen Rahmenbedingungen und fordert dringende Diskussionen darüber, wie solche Technologien genutzt und reguliert werden sollten, insbesondere im Hinblick auf die Integrität von Wahlen.
Da die Deepfake-Technologie immer fortschrittlicher und weit verbreiteter wird, ist es von größter Bedeutung, Transparenz und Wahrhaftigkeit in juristischen Einreichungen sicherzustellen. Dieser Fall in Minnesota könnte einen Präzedenzfall dafür schaffen, wie KI-bezogene Inhalte im Rechtssystem behandelt werden, und hebt die Notwendigkeit einer sorgfältigen Prüfung von KI-generierten Texten hervor.
Hinterlasse einen Kommentar
Alle Kommentare werden vor der Veröffentlichung geprüft.
Diese Website ist durch hCaptcha geschützt und es gelten die allgemeinen Geschäftsbedingungen und Datenschutzbestimmungen von hCaptcha.