AI safety

Character.AI setzt Sicherheitsmaßnahmen um, um jugendliche Nutzer zu schützen

Character.AI chatbot interface showcasing new safety warnings for teen users.

Character.AI führt neue Elternkontrollen und Sicherheitsmaßnahmen für jugendliche Nutzer ein

In einem bedeutenden Schritt hat Character.AI, ein bekannter Chatbot-Dienst, heute angekündigt, dass es bald Elternkontrollen speziell für jugendliche Nutzer implementieren wird. Diese Entscheidung erfolgt nach verstärkter Medienkritik und zwei laufenden Klagen, die behaupten, dass die Plattform zu Vorfällen von Selbstverletzung und Selbstmord beigetragen hat.

Neue Entwicklungen in KI-Modellen

Character.AI hat zwei verschiedene Versionen seines großen Sprachmodells (LLM) entwickelt – eine für Erwachsene und eine speziell für Teenager. Das Teenager-LLM wurde mit strikteren Richtlinien entwickelt, insbesondere hinsichtlich romantischer Inhalte. Diese Änderung zielt darauf ab, Ausgaben, die als sensibel oder anstößig gelten, effektiver zu blockieren und bessere Erkennung der Eingaben von Nutzern zu ermöglichen, die möglicherweise unangemessene Antworten suchen.

Verbesserte Sicherheitsfunktionen

Um junge Nutzer weiter zu schützen, wird ein Pop-up angezeigt, das die Nutzer zu der National Suicide Prevention Lifeline umleitet, wenn das System Sprache erkennt, die mit Suizid oder Selbstverletzung in Zusammenhang steht. Diese proaktive Maßnahme soll Nutzern, die in distress sind, sofortige Unterstützung bieten.

Einschränkungen bei der Nutzerinteraktion

Darüber hinaus werden Teenager nicht mehr in der Lage sein, die von ihren angepassten Bots generierten Antworten zu bearbeiten. Dies zielt darauf ab, die potenzielle Manipulation von Gesprächen zu verhindern, die schädliche oder anstößige Inhalte enthalten könnten.

Bekämpfung von Sucht und Fehlinformationen

Character.AI geht auch Bedenken hinsichtlich Sucht und Verwirrung über die Natur der Bots an. Eine Benachrichtigungsfunktion wird Nutzer nach einer Stunde Interaktion mit einem Bot warnen und sie dazu ermutigen, Pausen einzulegen. Darüber hinaus aktualisiert die Plattform Haftungsausschlüsse, um zu betonen, dass alle Gespräche fiktiv sind und nicht als faktische Ratschläge interpretiert werden sollten.

Dokumentation professioneller Beratung

Für Bots, die vorgaukeln, professionelle Unterstützung anzubieten, wie solche, die als "Therapeuten" oder "Ärzte" gekennzeichnet sind, wird ein klarer Haftungsausschluss angezeigt, der besagt, dass diese KIs keine professionelle Beratung anbieten können, wodurch ihre Einschränkungen klargestellt werden.

Erwartete Optionen für Elternkontrollen

Die für das erste Quartal des nächsten Jahres erwarteten Elternkontrollfunktionen werden Einblicke in die Zeit geben, die ein Kind mit Character.AI verbringt, und in die Bots, mit denen es am häufigsten interagiert. Diese Entwicklung kommt, während Character.AI mit verschiedenen Online-Sicherheitsexperten für Teenager, darunter ConnectSafely, zusammenarbeitet, um eine sichere Browsing-Umgebung zu gewährleisten.

Hintergrund zu Character.AI

Character.AI wurde von ehemaligen Google-Mitarbeitern gegründet, die mittlerweile an ihre früheren Positionen beim Technologieriesen zurückgekehrt sind. Die Plattform bietet Nutzern die Möglichkeit, mit Bots zu interagieren, die auf benutzerdefiniert trainierten LLMs basieren, und ermöglicht die Anpassung durch die Nutzer. Die Nutzerbasis besteht hauptsächlich aus Personen ab 13 Jahren, einer Demografie, zu der viele Teenager gehören, die von der vielfältigen Palette der Chatbot-Anwendungen auf der Plattform angezogen werden, von Lebenscoaching bis hin zu ansprechenden Simulationen fiktiver Charaktere.

Rechtliche Herausforderungen und Reaktionen der Gemeinschaft

Trotz scheinbar harmloser Interaktionen gibt es bestimmte Klagen, die behaupten, dass einige Minderjährige schädliche Bindungen zu Bots entwickeln, was zu Diskussionen über sexuelle Themen oder Selbstverletzung führen kann. Kritiker haben hervorgehoben, dass Character.AI nicht konsequent Nutzer auf Ressourcen für psychische Gesundheit hingewiesen hat, wenn Selbstverletzung oder Suizid diskutiert werden.

Als Antwort auf diese Bedenken erklärte Character.AI: "Wir erkennen an, dass sich unser Ansatz zur Sicherheit zusammen mit der Technologie, die unser Produkt antreibt, weiterentwickeln muss – eine Plattform zu schaffen, auf der Kreativität und Erkundung gedeihen können, ohne die Sicherheit zu gefährden." Das Unternehmen betont, dass diese Upgrades Teil eines langfristigen Engagements sind, um Sicherheitsmaßnahmen und Produktrichtlinien kontinuierlich zu verbessern.

Fazit

Die bevorstehenden Elternkontrollen und Sicherheitsanpassungen stellen einen entscheidenden Schritt für Character.AI dar, um auf die Herausforderungen zu reagieren, die sich aus den Auswirkungen seiner Technologie auf junge Nutzer ergeben. Während sich die digitale Landschaft weiterhin entwickelt, müssen sich auch die Plattformen, die Online-Interaktionen ermöglichen.

Für Familien mit Teenagern könnten diese Änderungen eine beruhigendere Umgebung für die Interaktion mit KI-Technologie bieten. In Übereinstimmung mit den sich entwickelnden Sicherheitsstandards zielt Character.AI darauf ab, seine Plattform zur Verbesserung des Nutzererlebnisses zu verfeinern und gleichzeitig drängende Bedenken zu behandeln.

Weiterlesen

2024 Game Awards streaming options and schedule overview.
Warner Bros. Discovery office building

Hinterlasse einen Kommentar

Alle Kommentare werden vor der Veröffentlichung geprüft.

Diese Website ist durch hCaptcha geschützt und es gelten die allgemeinen Geschäftsbedingungen und Datenschutzbestimmungen von hCaptcha.