Em resumo
- A OpenAI afirma que o ChatGPT Health será lançado para usuários selecionados a partir desta semana, com acesso mais amplo previsto nas próximas semanas.
- O recurso armazena conversas sobre saúde separadamente de outros chats e não as utiliza para treinar os modelos da OpenAI.
- Defensores da privacidade alertam que dados de saúde compartilhados com ferramentas de IA frequentemente ficam fora das leis de privacidade médica dos EUA.
Na quarta-feira, a OpenAI anunciou um novo recurso no ChatGPT, permitindo que usuários conectem registros médicos e dados de bem-estar, levantando preocupações entre alguns especialistas e grupos de defesa sobre o uso de dados pessoais.
A gigante de IA sediada em San Francisco, Califórnia, disse que a ferramenta, chamada ChatGPT Health, desenvolvida com médicos, foi projetada para apoiar o cuidado, e não para diagnosticar ou tratar doenças. A empresa está posicionando o recurso como uma forma de ajudar os usuários a entender melhor sua saúde.
Para muitos usuários, o ChatGPT já se tornou a plataforma de referência para perguntas sobre cuidados médicos e saúde mental.
A OpenAI disse à
Decrypt
que o ChatGPT Health compartilha apenas “informações gerais de saúde baseadas em fatos” e não fornece “conselhos médicos personalizados ou inseguros.”
Para perguntas de maior risco, o recurso fornecerá informações em nível geral, sinalizará riscos potenciais e incentivará as pessoas a conversar com um farmacêutico ou profissional de saúde que conheça sua situação específica.
A novidade segue-se ao relatório da empresa em outubro, segundo o qual mais de 1 milhão de usuários discutem suicídio com o chatbot toda semana. Isso representava cerca de 0,15% de todos os usuários do ChatGPT na época.
Embora esses números representem uma parcela relativamente pequena da população total de usuários, a maioria precisará lidar com preocupações sobre segurança e privacidade de dados, segundo especialistas.
“Mesmo quando as empresas afirmam ter salvaguardas de privacidade, os consumidores frequentemente não têm consentimento significativo, transparência ou controle sobre como seus dados são usados, retidos ou reutilizados”, disse J.B. Branch, defensor de responsabilidade das big-techs da Public Citizen, à
Decrypt.
“Os dados de saúde são especialmente sensíveis, e sem limites legais claros e supervisão efetiva, salvaguardas autopoliciadas simplesmente não são suficientes para proteger as pessoas contra uso indevido, reidentificação ou danos futuros.”
A OpenAI afirmou em seu comunicado que os dados de saúde no ChatGPT Health são criptografados por padrão, armazenados separadamente de outros chats e não são usados para treinar seus modelos fundacionais.
De acordo com Andrew Crawford, conselheiro sênior de políticas do Center for Democracy and Technology, muitos usuários presumem erroneamente que os dados de saúde são protegidos com base em sua sensibilidade, e não em quem os detém.
“Quando seus dados de saúde estão com seu médico ou sua seguradora, as regras de privacidade do HIPAA se aplicam”, disse Crawford à
Decrypt
. “O mesmo não é verdade para entidades que não são cobertas pelo HIPAA, como desenvolvedores de aplicativos de saúde, rastreadores de saúde vestíveis ou empresas de IA.”
Crawford afirmou que o lançamento do ChatGPT Health também destaca como o ônus da responsabilidade recai sobre os consumidores na ausência de uma lei federal abrangente de privacidade que regule dados de saúde mantidos por empresas de tecnologia.
“É lamentável que nossas leis e regulamentos federais atuais coloquem esse ônus sobre consumidores individuais, para que analisem se se sentem confortáveis com a forma como a tecnologia que usam diariamente lida e compartilha seus dados”, disse ele.
A OpenAI disse que o ChatGPT Health será lançado primeiro para um pequeno grupo de usuários.
A lista de espera está aberta para usuários do ChatGPT fora da União Europeia e do Reino Unido, com acesso mais amplo planejado para as próximas semanas na web e no iOS. O anúncio da OpenAI não mencionou dispositivos Google ou Android.