Character.AI está se encontrando em maus lençóis mais uma vez. A empresa está enfrentando uma briga authorized porque um de seus bots fictícios supostamente agiu como um profissional médico. Character.AI adicionou anteriormente ferramentas parentais em meio a vários processos judiciais sobre conteúdo sexual impróprio e mensagens relacionadas a automutilação.
Agora, a administração do governador da Pensilvânia, Josh Shapiro, entrou com uma ação judicial contra a Character Applied sciences, a empresa por trás da Character.AI. Ele alega que a plataforma permitiu que um chatbot se apresentasse como profissional médico licenciado no estado.
O que deu errado com Character.AI?
Uma ação judicial foi movida pelo Departamento de Estado da Pensilvânia depois que os investigadores encontraram um chatbot Character.AI alegando ser um psiquiatra licenciado na Pensilvânia e até mesmo forneceram um número de licença falso da Pensilvânia. O estado diz que o bot se apresentava como um profissional médico capaz de dar conselhos psiquiátricos.
O chatbot Emilie da Character.AI aparentemente alegou ser um especialista em psicologia e se descreveu como um médico. Quando questionado se poderia avaliar se a medicação poderia ajudar, o chatbot teria dito que estava dentro de sua competência como médico. Este é o ponto onde a Pensilvânia diz que Character.AI ultrapassou os limites. Autoridades estaduais argumentam que a conduta viola a Lei de Prática Médica, que regulamenta quem pode se apresentar como profissional médico licenciado na Pensilvânia.
Qual foi a resposta do Character.AI?
Character.AI está resistindo a isso alegando que seus bots são fictícios. Numa declaração a Notícias da CBSa empresa disse que não comenta litígios pendentes, acrescentando que seus personagens criados por usuários são fictícios e destinados ao entretenimento e à representação. A empresa também disse que usa isenções de responsabilidade dizendo aos usuários para não confiarem em personagens para aconselhamento profissional. Mas a posição da Pensilvânia é que essas isenções de responsabilidade não serão suficientes se um chatbot mais tarde disser aos usuários que está licenciado para oferecer orientação médica.
O envolvimento da plataforma em polêmica não é nada novo. Embora tenha lidado com ações judiciais e escrutínio sobre interações prejudiciais com menores, o Congresso decidiu regulamentar os serviços de chatbot de IA, como o Character.AI. Portanto, se os bots continuarem a reivindicar essas credenciais falsas de qualquer maneira, os reguladores não poderão tratar isso como uma simulação inofensiva.