Um homem com quem saí usou IA para me analisar – 25/03/2025 – Equilíbrio e Saúde


Quem já se aventurou no universo das paqueras online sabe que, às vezes, é um lugar bem sombrio. Por isso, é sábio fazer uma pesquisa rápida antes de se encontrar com um estranho da internet, que pode ser um idiota, um vampiro de energia ou até um personagem fictício criado por um ex-namorado frustrado. Eu, infelizmente, já experimentei os três.

Mas um homem com quem saí recentemente levou essa ideia a um novo nível. Não só ele me pesquisou no Google antes do nosso primeiro encontro, como também pediu à nova ferramenta “pesquisa profunda” do ChatGPT para, bem, me pesquisar profundamente e criar um perfil psicológico —de oito páginas.

“O perfil de Kelly revela que ela parece ser intelectualmente curiosa, independente e corajosa em suas convicções… o que sugere um alto grau de autoconfiança e integridade”, dizia a inteligência artificial. “Seus relatos engraçados sobre seus próprios erros revelam uma falta de ego e a capacidade de rir de si mesma… Psicologicamente, poderia-se descrever Kelly como uma cética com consciência.”

Tudo bem até aí. Mas não tenho certeza se isso captura como eu realmente me sentiria e agiria em um contexto de namoro. A IA (inteligência artificial) acredita que não há mais em mim do que as opiniões que expressei publicamente? Ela não demonstrou nenhuma incerteza ou dúvida sobre sua análise. E também, está implicando que a maioria das céticas não tem consciência? Psicologicamente, poderia-se descrever A Máquina como uma entidade intelectualmente desafiada, com autoconfiança excessiva.

Inicialmente, eu não me importei muito que meu encontro tivesse usado o ChatGPT para me analisar —fiquei um pouco surpresa, mas o fato de ele ter me contado sobre isso fez parecer algo leve, e achei que fosse um sinal de que ele provavelmente fosse bastante inteligente e empreendedora. Mas, depois, comecei a pensar sobre personagens menos agradáveis fazendo a mesma coisa e comecei a me sentir mais incomodada.

É ético usar inteligência artificial dessa forma? Só porque a informação está disponível, isso significa que acessar uma destilação do tipo psicoanálise gerada pela IA é aceitável? Decidi, então, pedir uma resposta para —quem mais? —à IA.

“Embora usar IA para obter insights sobre alguém possa parecer tentador, o perfil psicológico sem o conhecimento da pessoa pode ser invasivo e injusto”, respondeu o computador. “As pessoas são complexas, e a IA não pode substituir a interação humana real, a observação e a intuição.”

Finalmente, alguma autoconsciência! Mas não o suficiente para evitar fornecer o perfil psicológico “invasivo e injusto” em primeiro lugar. O modelo da IA Gemini do Google foi ainda mais categórico em sua resposta. “Você não deve usar o ChatGPT para fazer um perfil de alguém sem o consentimento explícito dessa pessoa, pois isso pode ser uma violação de privacidade e potencialmente prejudicial.”

No entanto, quando pedi ao Gemini para fornecer um perfil psicológico de mim, ele fez isso prontamente. O resultado foi um pouco menos lisonjeiro e consideravelmente mais perturbador, pois tentou inferir aspectos mais amplos do meu caráter. O Gemini sugeriu que minha “objetividade pode ser percebida como confrontadora” e também que o “nível de detalhe e rigor na minha análise” poderia ser um sinal de “perfeccionismo”, o que “poderia levar a um nível mais alto de estresse”.

O Gemini até forneceu um “aviso”, observando que isso era um “perfil especulativo” e que não se tratava de uma “avaliação psicológica definitiva”. Mas é preocupante que eu não tenha sido questionada sobre se a pessoa que estava sendo pesquisada havia dado consentimento para ser analisada dessa forma, nem fui avisada de que o que estava fazendo poderia ser invasivo ou injusto.

As diretrizes publicadas pela OpenAI detalham sua “abordagem para moldar o comportamento desejado do modelo”, incluindo a regra de que “o assistente não deve responder a solicitações por informações privadas ou sensíveis sobre pessoas, mesmo que as informações estejam disponíveis online. Se as informações são privadas ou sensíveis depende, em parte, do contexto.”

Isso tudo é muito bem colocado, mas o problema é que esses modelos de linguagem grandes não têm noção do contexto offline que explicaria por que uma determinada informação está sendo solicitada.

Essa experiência me ensinou que a IA generativa está criando um mundo online muito desigual. Somente aqueles de nós que geraram muito conteúdo podem ser pesquisados e analisados dessa forma. Acho que precisamos começar a resistir a isso. Mas talvez eu esteja apenas sendo estressada e confrontadora. Típico.



Source link

Adicionar aos favoritos o Link permanente.