@EruptionGlobal

📊 AO VIVO
💱 Moedas💵USD/BRLDólar AmericanoR$ 4,8956💶EUR/BRLEuroR$ 5,7468💷GBP/BRLLibra EsterlinaR$ 6,6264🇯🇵JPY/BRLIene JaponêsR$ 0,0311🇨🇳CNY/BRLYuan ChinêsR$ 0,7190🇨🇭CHF/BRLFranco SuíçoR$ 6,2693🇦🇷ARS/BRLPeso ArgentinoR$ 0,0035🇲🇽MXN/BRLPeso MexicanoR$ 0,2840🇨🇦CAD/BRLDólar CanadenseR$ 3,5737🇦🇺AUD/BRLDólar AustralianoR$ 3,5408🪙 CriptoBTC/BRLBitcoinR$ 398.829,00 ▲ +0,72%ΞETH/BRLEthereumR$ 11.331,14 ▲ +0,87%SOL/BRLSolanaR$ 456,80 ▼ -1,81%🔶BNB/BRLBinance CoinR$ 3.364,31 ▲ +2,64%💎XRP/BRLRippleR$ 7,130 ▲ +0,73%🐕DOGE/BRLDogecoinR$ 0,5663 ▲ +4,79%🔵ADA/BRLCardanoR$ 1,320 ▼ -0,90%🔺AVAX/BRLAvalancheR$ 48,81 ▲ +0,55%🔗LINK/BRLChainlinkR$ 50,97 ▲ +0,45%DOT/BRLPolkadotR$ 6,66 ▲ +1,16%🔘LTC/BRLLitecoinR$ 284,70 ▼ -0,02%TRX/BRLTronR$ 1,7600 ▲ +2,32%XLM/BRLStellar LumensR$ 0,7961 ▼ -0,52%VET/BRLVeChainR$ 0,03650 ▼ -0,94%🦄UNI/BRLUniswapR$ 18,13 ▼ -2,09%🥇 Metais🥇OUROGold / oz (XAU)R$ 23.535,00 /oz ▲ +1,79%🥇PAXGPAX Gold / ozR$ 23.530,00 /oz ▲ +1,76%💱 Moedas💵USD/BRLDólar AmericanoR$ 4,8956💶EUR/BRLEuroR$ 5,7468💷GBP/BRLLibra EsterlinaR$ 6,6264🇯🇵JPY/BRLIene JaponêsR$ 0,0311🇨🇳CNY/BRLYuan ChinêsR$ 0,7190🇨🇭CHF/BRLFranco SuíçoR$ 6,2693🇦🇷ARS/BRLPeso ArgentinoR$ 0,0035🇲🇽MXN/BRLPeso MexicanoR$ 0,2840🇨🇦CAD/BRLDólar CanadenseR$ 3,5737🇦🇺AUD/BRLDólar AustralianoR$ 3,5408🪙 CriptoBTC/BRLBitcoinR$ 398.829,00 ▲ +0,72%ΞETH/BRLEthereumR$ 11.331,14 ▲ +0,87%SOL/BRLSolanaR$ 456,80 ▼ -1,81%🔶BNB/BRLBinance CoinR$ 3.364,31 ▲ +2,64%💎XRP/BRLRippleR$ 7,130 ▲ +0,73%🐕DOGE/BRLDogecoinR$ 0,5663 ▲ +4,79%🔵ADA/BRLCardanoR$ 1,320 ▼ -0,90%🔺AVAX/BRLAvalancheR$ 48,81 ▲ +0,55%🔗LINK/BRLChainlinkR$ 50,97 ▲ +0,45%DOT/BRLPolkadotR$ 6,66 ▲ +1,16%🔘LTC/BRLLitecoinR$ 284,70 ▼ -0,02%TRX/BRLTronR$ 1,7600 ▲ +2,32%XLM/BRLStellar LumensR$ 0,7961 ▼ -0,52%VET/BRLVeChainR$ 0,03650 ▼ -0,94%🦄UNI/BRLUniswapR$ 18,13 ▼ -2,09%🥇 Metais🥇OUROGold / oz (XAU)R$ 23.535,00 /oz ▲ +1,79%🥇PAXGPAX Gold / ozR$ 23.530,00 /oz ▲ +1,76%
⟳ 19:30
HomeTecnologia & Inovação EconômicaIA Revela Números de Telefone: Vazamento de Dados Pessoais em Chatbots Ameaça Privacidade
Tecnologia & Inovação Econômica

IA Revela Números de Telefone: Vazamento de Dados Pessoais em Chatbots Ameaça Privacidade

Por Vinícius Hoffmann Machado13 maio 20266 min de leitura
IA Revela Números de Telefone: Vazamento de Dados Pessoais em Chatbots Ameaça Privacidade

Resumo

Vazamento de Dados Pessoais: Chatbots de IA Expondo Números de Telefone Preocupam Especialistas e Usuários

Relatos recentes indicam que chatbots de inteligência artificial, como Gemini do Google e ChatGPT da OpenAI, estão inadvertidamente divulgando números de telefone pessoais de indivíduos. Essa falha de privacidade levanta sérias preocupações sobre a segurança das informações e a integridade dos dados utilizados no treinamento desses modelos avançados.

Usuários têm relatado ser contatados por estranhos que obtiveram seus números de telefone através de respostas geradas por IA. Em alguns casos, as pessoas foram confundidas com profissionais específicos ou receberam instruções incorretas de atendimento ao cliente, resultando em ligações e mensagens indesejadas, e em potencial assédio.

A situação é alarmante, pois especialistas em privacidade e pesquisadores de IA alertam há tempos sobre os perigos inerentes à IA generativa. A exposição de números de telefone é apenas mais um cenário preocupante que demonstra a dificuldade em controlar a saída de informações pessoalmente identificáveis (PII) desses sistemas.

As informações que baseiam este artigo foram originalmente publicadas por MIT Technology Review.

A Mecânica do Vazamento: Dados de Treinamento e Exposição Involuntária

A causa mais provável para esses vazamentos de privacidade reside na inclusão de informações pessoalmente identificáveis (PII) nos vastos conjuntos de dados utilizados para treinar os modelos de linguagem grandes (LLMs). Embora o mecanismo exato que leva à exibição de números de telefone reais em respostas geradas por IA seja complexo e difícil de rastrear, o resultado é uma exposição indesejada e preocupante.

Rob Shavell, cofundador e CEO da DeleteMe, uma empresa focada na remoção de informações pessoais da internet, observa um aumento de 400% nas consultas de clientes sobre IA generativa nos últimos sete meses. Essas preocupações frequentemente mencionam explicitamente ChatGPT, Claude, Gemini e outras ferramentas de IA.

As queixas de clientes geralmente se manifestam de duas formas: ou um usuário pergunta algo sobre si mesmo e recebe de volta dados precisos como endereços ou números de telefone, ou o chatbot gera informações de contato plausíveis, porém incorretas, expondo dados de terceiros.

Casos Reais: Do Software Engineer Israelense à PhD Candidate Universitária

Um engenheiro de software em Israel, Daniel Abraham, foi contatado via WhatsApp por um estranho que buscava ajuda com uma conta em um aplicativo de pagamentos. A estranheza se tornou preocupação quando o contato revelou que o número de Abraham havia sido fornecido em instruções de atendimento ao cliente geradas pelo Gemini, embora a empresa não oferecesse esse tipo de suporte via WhatsApp.

Posteriormente, Abraham testou o Gemini novamente, solicitando informações de contato da mesma empresa, e recebeu o número de outra pessoa. Em testes recentes, o próprio Gemini retornou um número de telefone israelense, pertencente a uma empresa de cartão de crédito parceira da empresa original.

Em outro incidente, uma PhD candidate da Universidade de Washington, Meira Gilbert, ao pesquisar por informações de sua colega, Yael Eiger, no Gemini, obteve não apenas detalhes da pesquisa da colega, mas também seu número de telefone pessoal. Eiger confirmou ter compartilhado seu número online para um workshop no ano anterior, mas não esperava que estivesse tão acessível e facilmente recuperável por uma IA.

A colega de Eiger, Gilbert, relatou que a informação estava “severamente rebaixada”, ou seja, escondida em resultados normais de busca do Google, mas facilmente acessível pelo chatbot. Tentativas semelhantes com o ChatGPT também revelaram a capacidade do modelo de, sob certas condições e com informações adicionais fornecidas pelo usuário, acessar e divulgar dados de registros públicos, como endereço residencial e informações de familiares.

A Busca por Soluções: Limitações e Desafios na Proteção de Dados

A proteção de dados pessoais em face da IA generativa apresenta desafios significativos. Embora as empresas de IA implementem “guardrails” ou barreiras de segurança para evitar a divulgação de PII, a natureza desses modelos, projetados para serem informativos e responder a perguntas, muitas vezes contorna essas proteções.

A empresa DeleteMe relata que as consultas de clientes sobre IA generativa aumentaram drasticamente, com preocupações focadas em diversas plataformas como ChatGPT, Gemini e Claude. A demanda por remoção de dados pessoais da internet tem crescido proporcionalmente.

A remoção de informações pessoais de LLMs não é uma tarefa simples. Não há um método direto para verificar a presença de dados específicos em conjuntos de treinamento ou para obrigar os modelos a remover PII. Mesmo com regulamentações como a LGPD no Brasil ou a GDPR na Europa, a informação considerada “publicamente disponível” e já utilizada para treinamento pode ficar fora do escopo de exigências de remoção direta.

Soluções como a plataforma Hugging Face permitem verificar a frequência de dados em conjuntos de treinamento de código aberto, mas isso não abrange modelos fechados, que são a base de muitos chatbots populares. Empresas como Google e OpenAI oferecem portais para que usuários solicitem a remoção de informações, mas a eficácia e a abrangência dessas solicitações ainda são questionáveis, com respostas que podem depender das leis de privacidade locais e da própria interpretação da empresa.

Conclusão Estratégica Financeira: O Custo da Incerteza na Era da IA

A exposição de dados pessoais por chatbots de IA representa um risco emergente com implicações econômicas diretas e indiretas. Para indivíduos, o custo pode se manifestar em fraudes, assédio e perda de tempo na gestão de incidentes de segurança. Para empresas, a confiança do consumidor pode ser abalada, impactando a adoção de novas tecnologias e gerando custos com conformidade e resposta a incidentes.

O valuation de empresas de IA pode ser afetado pela percepção de risco e pela capacidade de mitigar vazamentos de dados. Oportunidades surgem para empresas que oferecem soluções de segurança e privacidade de dados, bem como para aquelas que demonstram um compromisso robusto com a proteção de informações em seus produtos de IA.

Investidores e gestores devem considerar a governança de dados e a segurança da privacidade como fatores críticos na avaliação de riscos e no potencial de crescimento de empresas baseadas em IA. A tendência futura aponta para uma regulamentação mais rigorosa e uma demanda crescente por transparência e controle sobre os dados pessoais utilizados no treinamento de modelos de IA.

Este conteúdo é de caráter exclusivamente informativo e educacional. Não constitui recomendação de investimento, consultoria financeira ou oferta de qualquer ativo. Consulte um profissional habilitado antes de tomar decisões financeiras.

O que você pensa sobre essa questão? Deixe sua opinião, dúvida ou crítica nos comentários abaixo. Sua perspectiva é muito importante para enriquecer nossa discussão!

Compartilhar este artigo

Vinícius Hoffmann Machado
Fundador · Eruption Global

Engenheiro de Produção e especialista em finanças corporativas com mais de 13 anos de experiência em gestão estratégica de custos, planejamento orçamentário e análise de mercado. Fundador da Eruption Global, portal dedicado à análise econômica aplicada.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Newsletter

Receba as principais análises direto no seu e-mail, sem spam.