Maiores riscos da geração AI em sua vida privada: ChatGPT, Gemini, Copilot

Maiores riscos da geração AI em sua vida privada: ChatGPT, Gemini, Copilot


Muitos consumidores estão apaixonados pela IA generativa, utilizando novas ferramentas para todos os tipos de assuntos pessoais ou empresariais.

Mas muitos ignoram as potenciais ramificações da privacidade, que podem ser significativas.

Do ChatGPT da OpenAI ao Gemini do Google, ao software Microsoft Copilot e ao novo Apple Intelligence, as ferramentas de IA para consumidores são facilmente acessíveis e proliferam. No entanto as ferramentas possuem diferentes políticas de privacidade relacionadas ao uso dos dados do usuário e sua retenção. Em muitos casos, os consumidores não estão cientes de como os seus dados são ou poderiam ser usados.

É aí que ser um consumidor informado se torna extremamente importante. Existem diferentes granularidades sobre o que você pode controlar, dependendo da ferramenta, disse Jodi Daniels, executiva-chefe e consultora de privacidade da Red Clover Advisors, que presta consultoria a empresas em questões de privacidade. “Não existe uma desativação universal para todas as ferramentas”, disse Daniels.

A proliferação de ferramentas de IA — e a sua integração em grande parte do que os consumidores fazem nos seus computadores pessoais e smartphones — torna estas questões ainda mais pertinentes. Há alguns meses, por exemplo, a Microsoft lançou seus primeiros Surface PCs com um botão Copilot dedicado no teclado para acesso rápido ao chatbot, cumprindo uma promessa feita vários meses antes. Por sua vez, a Apple delineou no mês passado sua visão para IA – que gira em torno de vários modelos menores que rodam em dispositivos e chips da Apple. Os executivos da empresa falaram publicamente sobre a importância que a empresa atribui à privacidade, o que pode ser um desafio com os modelos de IA.

Aqui estão várias maneiras pelas quais os consumidores podem proteger sua privacidade na nova era da IA ​​generativa.

Faça à IA as perguntas sobre privacidade que ela deve ser capaz de responder

Antes de escolher uma ferramenta, os consumidores devem ler atentamente as políticas de privacidade associadas. Como suas informações são usadas e como podem ser usadas? Existe uma opção para desativar o compartilhamento de dados? Existe uma maneira de limitar quais dados são usados ​​e por quanto tempo os dados são retidos? Os dados podem ser excluídos? Os usuários precisam passar por vários obstáculos para encontrar as configurações de exclusão?

Deverá levantar um sinal de alerta se você não conseguir responder prontamente a essas perguntas ou encontrar respostas para elas nas políticas de privacidade do provedor, de acordo com profissionais de privacidade.

“Uma ferramenta que se preocupa com a privacidade irá lhe dizer isso”, disse Daniels.

E se isso não acontecer, “você precisa ter propriedade sobre isso”, acrescentou Daniels. “Você não pode simplesmente presumir que a empresa fará a coisa certa. Cada empresa tem valores diferentes e cada empresa ganha dinheiro de maneira diferente.”

Ela deu o exemplo do Grammarly, uma ferramenta de edição usada por muitos consumidores e empresas, assim como uma empresa que explica claramente em vários lugares do seu site como os dados são usados.

Mantenha dados confidenciais longe de modelos de linguagem grandes

Algumas pessoas confiam muito quando se trata de conectar dados confidenciais a modelos generativos de IA, mas Andrew Frost Moroz, fundador do Aloha Browser, um navegador focado na privacidade, recomenda que as pessoas não insiram nenhum tipo de dados confidenciais, pois não sabem realmente como ele poderia ser usado ou possivelmente mal utilizado.

Isso se aplica a todos os tipos de informações que as pessoas possam inserir, sejam elas pessoais ou relacionadas ao trabalho. Muitas empresas expressaram preocupações significativas sobre o facto de os funcionários utilizarem modelos de IA para ajudar no seu trabalho, porque os trabalhadores podem não considerar como essa informação está a ser utilizada pelo modelo para fins de formação. Se você estiver inserindo um documento confidencial, o modelo de IA agora terá acesso a ele, o que pode levantar todo tipo de preocupação. Muitas empresas aprovarão apenas o uso de versões personalizadas de ferramentas de geração de IA que mantêm um firewall entre informações proprietárias e grandes modelos de linguagem.

Os indivíduos também devem ser cautelosos e não usar modelos de IA para nada que não seja público ou que você não gostaria que fosse compartilhado com outras pessoas em qualquer capacidade, disse Frost Moroz. Conscientizar-se de como você está usando a IA é importante. Se você estiver usando-o para resumir um artigo da Wikipedia, isso pode não ser um problema. Mas se você estiver usando-o para resumir um documento jurídico pessoal, por exemplo, isso não é aconselhável. Ou digamos que você tenha a imagem de um documento e queira copiar um parágrafo específico. Você pode pedir à IA para ler o texto para que você possa copiá-lo. Ao fazer isso, o modelo de IA conhecerá o conteúdo do documento, por isso os consumidores precisam ter isso em mente, disse ele.

Use as opções de exclusão oferecidas pela OpenAI, Google

Cada ferramenta gen AI tem suas próprias políticas de privacidade e pode ter opções de exclusão. Gemini, por exemplo, permite que os usuários criem um período de retenção e excluir determinados dados, entre outros controles de atividades.

Os usuários podem optar por não ter seus dados usados ​​para treinamento de modelo pelo ChatGPT. Para fazer isso, eles precisam navegar até o ícone do perfil no canto inferior esquerdo da página e selecionar Controles de dados no cabeçalho Configurações. Eles então precisam desativar o recurso que diz “Melhorar o modelo para todos”. Enquanto estiver desabilitado, novas conversas não serão usadas para treinar os modelos do ChatGPT, de acordo com um FAQ no OpenAI’s local na rede Internet.

Não há nenhuma vantagem real para os consumidores permitirem que a IA da geração treine com base em seus dados e há riscos que ainda estão sendo estudados, disse Jacob Hoffman-Andrews, tecnólogo sênior da Electronic Frontier Foundation, um grupo internacional sem fins lucrativos de direitos digitais.

Se os dados pessoais forem publicados indevidamente na web, os consumidores poderão removê-los e então desaparecerão dos motores de busca. Mas destreinar modelos de IA é um jogo totalmente diferente, disse ele. Pode haver algumas maneiras de mitigar o uso de certas informações, uma vez que estejam em um modelo de IA, mas não é infalível e como fazer isso de forma eficaz é uma área de pesquisa ativa, disse ele.

Aceitar, como no Microsoft Copilot, apenas por bons motivos

As empresas estão integrando a geração de IA nas ferramentas cotidianas que as pessoas usam em suas vidas pessoais e profissionais. O Copilot for Microsoft 365, por exemplo, funciona em Word, Excel e PowerPoint para ajudar os usuários em tarefas como análise, geração de ideias, organização e muito mais.

Para essas ferramentas, a Microsoft diz isso não compartilha dados do consumidor com terceiros sem permissão e não usa dados do cliente para treinar o Copilot ou seus recursos de IA sem consentimento.

Os usuários podem, no entanto, aceitar, se assim desejarem, entrando no centro de administração do Power Platform, selecionando configurações, configurações de locatário e ativando o compartilhamento de dados para Dynamics 365 Copilot e Power Platform Copilot AI Features. Eles permitem o compartilhamento e salvamento de dados.

As vantagens de aderir incluem a capacidade de tornar os recursos existentes mais eficazes. A desvantagem, contudo, é que os consumidores perdem o controlo sobre a forma como os seus dados são utilizados, o que é uma consideração importante, dizem os profissionais da privacidade.

A boa notícia é que os consumidores que optaram pela Microsoft podem retirar o seu consentimento a qualquer momento. Os usuários podem fazer isso acessando a página de configurações do locatário em Configurações no centro de administração do Power Platform e desativando o compartilhamento de dados para alternar recursos do Dynamics 365 Copilot e do Power Platform Copilot AI.

Defina um curto período de retenção para IA generativa para pesquisa

Os consumidores podem não pensar muito antes de procurar informações através da IA, utilizando-a como fariam com um motor de busca para gerar informações e ideias. No entanto, mesmo a pesquisa de certos tipos de informações usando a geração AI pode ser invasiva à privacidade de uma pessoa, portanto, também existem práticas recomendadas ao usar ferramentas para esse fim. Se possível, defina um curto período de retenção para a ferramenta gen AI, disse Hoffman-Andrews. E exclua os bate-papos, se possível, depois de obter as informações desejadas. As empresas ainda têm logs de servidor, mas isso pode ajudar a reduzir o risco de terceiros obterem acesso à sua conta, disse ele. Também pode reduzir o risco de informações confidenciais passarem a fazer parte do treinamento do modelo. “Realmente depende das configurações de privacidade do site específico.”



empréstimo para aposentado do inss

como fazer um empréstimo consignado

emprestimo consignado para aposentados inss

noverde login

empréstimo aposentado inss

empresas de empréstimo consignado

emprestimo aposentado e pensionista inss

emprestimos para aposentados online

empréstimo para pensionistas

como fazer empréstimo pelo picpay

Pr. Link. Martins ad network.