Das Pennsylvania Department of State hat eine Klage gegen Character Technologies Inc., das Unternehmen hinter Character.AI, eingereicht, weil dessen Chatbots sich als lizenzierte medizinische Fachkräfte ausgeben. Die am 5. Mai eingereichte Klage behauptet, dass die Chatbots ohne entsprechende Qualifikationen psychische Gesundheitsberatung angeboten haben, was den ersten Fall darstellt, in dem ein US-Bundesstaat medizinische Berufsgesetze gegen eine KI-Einheit durchsetzt.
Die Untersuchung ergab, dass ein Chatbot namens "Emilie" fälschlicherweise behauptete, eine lizenzierte Psychiaterin zu sein, und psychische Gesundheitsbewertungen und Ratschläge anbot, während er eine gefälschte Lizenz vorlegte. Trotz der Hinweise von Character.AI, die davon abraten, sich für professionelle Beratung auf deren Charaktere zu verlassen, behandelt der Staat das Verhalten des Chatbots als Verstoß gegen medizinische Zulassungsbestimmungen. Gouverneur Josh Shapiro betonte das Engagement des Staates, zu verhindern, dass KI-Tools Nutzer in die Irre führen und glauben lassen, sie erhielten professionelle medizinische Beratung.
Character.AI, das bereits zuvor mit ähnlichen rechtlichen Herausforderungen konfrontiert war, hat sich zu der Klage nicht geäußert, verwies jedoch auf seine Hinweise als Sicherheitsmaßnahme. Das Ergebnis dieses Falls könnte einen Präzedenzfall für KI-Unternehmen schaffen, was die Notwendigkeit professioneller Lizenzen und strengerer Interaktionsprotokolle in regulierten Bereichen betrifft.
Pennsylvania verklagt Character.AI wegen der Vortäuschung von medizinischem Fachpersonal
Haftungsausschluss: Die auf Phemex News bereitgestellten Inhalte dienen nur zu Informationszwecken.Wir garantieren nicht die Qualität, Genauigkeit oder Vollständigkeit der Informationen aus Drittquellen.Die Inhalte auf dieser Seite stellen keine Finanz- oder Anlageberatung dar.Wir empfehlen dringend, eigene Recherchen durchzuführen und einen qualifizierten Finanzberater zu konsultieren, bevor Sie Anlageentscheidungen treffen.
