Busca sem resultado
jusbrasil.com.br
6 de Maio de 2024

Erro impactante da ia: médico vítima de falsas acusações de 100 assédios, enfrentando desafios profissionais e pessoais

há 10 meses

Médico respeitado com quase 40 anos de experiência e histórico impecável no Cremesp (Conselho Regional de Medicina de São Paulo) se vê injustamente associado a mais de 100 casos de assédio sexual devido a um grave erro da IA (Inteligência Artificial) do buscador Bing, desenvolvido pela Microsoft. Desde março deste ano, o Bing introduziu um recurso de chat em sua plataforma, impulsionado pela avançada IA do ChatGPT, capaz de gerar conteúdo de forma autônoma.

Após enfrentar sérios danos à sua reputação, o médico decidiu entrar com um processo contra a empresa responsável, resultando em uma decisão judicial que obrigou a remoção do conteúdo difamatório dos resultados de busca. A recente decisão da 7ª Vara Cível de Bauru (SP) pode ser considerada um marco, pois é uma das primeiras ações a responsabilizar uma empresa por erros causados por sistemas de IA.

No mundo cada vez mais digital em que vivemos, é comum que as pessoas recorram à internet para obter informações sobre profissionais da área da saúde. Em uma era em que a confiança e a credibilidade são fundamentais, encontrar referências sólidas é essencial para os pacientes.

No entanto, recentemente, testemunhamos um caso alarmante que expõe os perigos potenciais de confiar cegamente nas informações online. Um médico com uma sólida carreira de quase 40 anos e sem qualquer denúncia no Cremesp (Conselho Regional de Medicina de São Paulo) viu-se envolvido em um pesadelo quando seu nome foi erroneamente associado a mais de 100 casos de assédio sexual.

Esse equívoco ocorreu devido a um erro cometido pela IA do buscador Bing, desenvolvido pela Microsoft. Após a integração com a avançada IA do ChatGPT, o Bing começou a responder solicitações dos usuários por meio de um chat. No entanto, a IA falhou gravemente nesse caso, apresentando informações completamente inverídicas sobre o médico.

Imaginem o impacto devastador que uma falsa acusação dessa magnitude poderia causar na vida profissional e pessoal desse médico, que dedicou décadas de sua vida ao atendimento de pacientes e ao cuidado com a saúde. É inadmissível que uma tecnologia desenvolvida para facilitar a vida das pessoas possa, inadvertidamente, arruinar uma carreira e manchar a reputação de um profissional de forma tão injusta.

Diante desse incidente, é imperativo que as empresas que desenvolvem e implementam sistemas de IA assumam total responsabilidade pelos erros cometidos por suas tecnologias. É necessário estabelecer medidas de controle de qualidade rigorosas e garantir a precisão e a confiabilidade dos resultados fornecidos por esses sistemas, especialmente quando se trata de informações sensíveis e que podem impactar diretamente a vida das pessoas.

Além disso, é essencial que os pacientes sejam críticos em relação às informações encontradas online. Embora seja conveniente e útil buscar referências, é importante considerar a fonte e verificar a veracidade das informações antes de tirar conclusões precipitadas. Os profissionais de saúde merecem nosso respeito e confiança, e devemos agir com responsabilidade ao avaliar informações que podem afetar suas carreiras e vidas.

É urgente que tanto empresas quanto usuários reconheçam os riscos associados ao avanço das tecnologias de IA e trabalhem em conjunto para garantir que casos lamentáveis como esse não se repitam. Somente assim poderemos construir um ambiente digital mais seguro e justo para todos, onde a reputação e a integridade dos profissionais sejam preservadas.

No decorrer deste ano, um médico se deparou com uma descoberta preocupante após realizar uma pesquisa utilizando seu próprio nome no chatbot do Bing. Essa ferramenta, desenvolvida pela Microsoft, utiliza a essência do chatGPT, um sistema de IA desenvolvido pela OpenAI, para fornecer respostas automatizadas que simulam uma conversa humana. Os dados utilizados são gerados pelo próprio sistema com base no índice de relevância do buscador, ranqueamento de sites e resultados de pesquisa.

O médico em questão desempenhava um papel importante como um dos responsáveis por investigar denúncias contra outros profissionais da área médica no Cremesp. Durante uma entrevista concedida em 2023, o médico mencionou a existência de mais de 100 investigações relacionadas a casos de assédio sexual em São Paulo, com registros de 33 casos em 2011, 58 casos em 2012 e 14 casos em 2013.

No entanto, a IA do Bing cometeu um erro ao interpretar erroneamente essas informações. Ela equivocadamente associou os números de denúncias citados na entrevista ao médico em questão, em vez de compreender que se tratavam das denúncias apuradas contra outros profissionais. Diante desse equívoco, o médico decidiu entrar com um processo contra a Microsoft.

O juiz Jayter Cortez Júnior, da 7ª Vara Cível de Bauru, em uma decisão proferida em 15 de junho, determinou que a associação do médico aos casos de assédio fosse excluída dos resultados de busca do Bing em um prazo de 48 horas, sob pena de multa diária de R$ 5 mil. Vale ressaltar que o caso está tramitando em segredo de justiça.

Procurada pela Tilt, a Microsoft informou que não comenta casos em andamento. Por questões pessoais, o médico decidiu não divulgar sua identidade, mesmo tendo concedido uma entrevista anteriormente na qual relatava seus sentimentos diante dessa situação desafiadora.

  • Publicações494
  • Seguidores37
Detalhes da publicação
  • Tipo do documentoNotícia
  • Visualizações270
De onde vêm as informações do Jusbrasil?
Este conteúdo foi produzido e/ou disponibilizado por pessoas da Comunidade, que são responsáveis pelas respectivas opiniões. O Jusbrasil realiza a moderação do conteúdo de nossa Comunidade. Mesmo assim, caso entenda que o conteúdo deste artigo viole as Regras de Publicação, clique na opção "reportar" que o nosso time irá avaliar o relato e tomar as medidas cabíveis, se necessário. Conheça nossos Termos de uso e Regras de Publicação.
Disponível em: https://www.jusbrasil.com.br/noticias/erro-impactante-da-ia-medico-vitima-de-falsas-acusacoes-de-100-assedios-enfrentando-desafios-profissionais-e-pessoais/1872586501

Informações relacionadas

ADVOCACIA DIGITAL
Notíciashá 2 anos

China desenvolve Promotor com IA capaz de acusar pessoas com 97% de precisão

1 Comentário

Faça um comentário construtivo para esse documento.

Não use muitas letras maiúsculas, isso denota "GRITAR" ;)

Muitas águas ainda vão rolar, antes que todos os desacertos e associações inadequadas sejam corrigidas.
Os bugs ocorrerão por muito tempo.
Um dia corrigidos, o serão por maior incremento de capacidade às IAs o que poderá se tornar o maior problema a ser enfrentado pela nossa espécie e outras formas de vida - podemos estar no limiar da criação das novas formas de vida que, quem sabe, serão os Senhores do Universo.
Nossa geração não verá esse período, mas nossos descendentes sim, e poderão ser extintos. continuar lendo