O desenvolvimento mais marcante de 2023 é, sem dúvida, a ascensão meteórica do ChatGPT, o modelo de linguagem desenvolvido pela OpenAI capaz de gerar textos com base no conhecimento disponível na Internet.

Em meio ao crescimento dessa tecnologia, o tema da privacidade é mais relevante do que nunca. Os algoritmos e a inteligência artificial desempenham um papel cada vez mais importante em nossa vida cotidiana, fornecendo assistência inestimável em tarefas que vão desde o reconhecimento de fala até a geração de conteúdo.

Mas, à medida que nos tornamos cada vez mais dependentes dessas tecnologias, estamos fazendo perguntas sobre o impacto delas em nossa privacidade e como elas usam e protegem nossos dados pessoais. Nesse contexto, vamos dar uma olhada no que acontece com a privacidade quando a IA está envolvida.

Inteligência artificial

O ChatGPT é um modelo desenvolvido pela OpenAI, seu treinamento inicial começou em 2019 e sua primeira publicação data de 2020. A OpenAI continua a desenvolver e atualizar seu modelo para melhorar seu desempenho. A OpenAI é capaz de gerar texto com base no conhecimento textual anterior a 2021.

No momento em que este artigo foi escrito, o ChatGPT é capaz de produzir um texto notável que soa como humano. Ele também pode gerar algumas respostas criativas surpreendentes. O progresso da IA é exponencial. A geração atual de chatbots já superou o teste de Turing.

O Teste de Turing é um teste de inteligência criado pelo matemático e cientista da computação britânico Alan Turing em 1950. Ele consiste em uma conversa em um canal de comunicação, na qual um ser humano julga se o correspondente é outro ser humano ou uma máquina. Se o juiz não puder determinar com certeza se o correspondente é uma máquina, considera-se que a máquina passou no teste e tem uma inteligência artificial capaz de se passar por um ser humano. O teste de Turing é visto como um elemento fundamental na história da IA e continua a ser objeto de debate.

Eventualmente, os chatbots alimentados por inteligência artificial serão aplicados a todos os tipos de trabalhos e tarefas. É apenas uma questão de tempo até que a interação com a IA se torne parte integrante de nossas vidas diárias. Essa proliferação apenas acelerará ainda mais seu desenvolvimento.

Percebemos que, apesar de todo o hype da mídia em torno do ChatGPT, as questões de privacidade levantadas pela IA receberam relativamente pouca atenção. E, no entanto, sem dados, não haveria IA.

O treinamento de uma IA requer muitos dados e muitos humanos

Isso mesmo, porque é realmente um treinamento.

Diz-se que a inteligência artificial é treinada porque isso envolve o fornecimento de muitos dados para que ela possa aprender a executar tarefas específicas de forma autônoma. Durante esse treinamento, a IA é capaz de tirar conclusões dos dados que recebe e usá-las para melhorar seu desempenho. Essa forma de aprendizado automático exige uma preparação metódica a montante para permitir que a IA se adapte ao longo do tempo.

Portanto, são necessárias grandes quantidades de dados para treinar a maioria dos modelos de Inteligência Artificial. De fato, quanto mais informações a IA recebe para processar, mais capaz ela é de detectar padrões, antecipar e criar algo totalmente novo.

As informações devem ser eliminadas

Antes que a Inteligência Artificial possa ser treinada nos dados, eles devem ser limpos, o que significa formatá-los corretamente e criar moderação (até que ponto, não sabemos). Deve-se observar que a OpenAI convocou centenas de pessoas no Quênia para limpar os dados do GPT-3, algumas das quais afirmam ter ficado traumatizadas com esse trabalho porque a natureza das informações a serem classificadas poderia ser chocante, prejudicial, violenta ou sangrenta.

Auto, a IA da espaçonave Axiom, é o principal antagonista do filme de animação WALL-E, da Disney Pixar Studios, lançado em 2008.

Além disso, não temos como saber se determinadas informações fornecidas à IA como parte de seu treinamento foram alteradas ou simplesmente excluídas do modelo.

Para que você tenha uma ideia do que isso significa, considere que toda a Wikipédia em inglês, que contém cerca de 6 milhões de artigos, representou apenas 0,6% dos dados de treinamento do GPT-3. O ChatGPT é apenas uma variante.

A IA tem seus limites

Uma IA treinada com dados só aprenderá a gerenciar situações usando todos os elementos à sua disposição. Se seus dados não forem representativos, a IA criará vieses em sua tomada de decisão.

Por exemplo, em 2018, a Amazon descobriu que sua IA de classificação para pedidos de emprego penalizava as mulheres porque seu modelo continha principalmente dados de currículos masculinos.

Da mesma forma, se a IA se deparar com uma situação que nunca viu em seus dados de treinamento, ela não saberá o que fazer. Foi o que aconteceu com um veículo autônomo da Uber que matou um pedestre que não conseguiu identificar porque a pessoa estava fora de uma faixa de pedestres.

Como lembrete, o principal objetivo dos captchas é focar no que está acontecendo na estrada: semáforos, faixas de pedestres, hidrantes, pontes, bicicletas, motocicletas, ônibus etc. Isso é precisamente para treinar modelos de IA de direção automática para reconhecer esses elementos.

Círculo vicioso ou virtuoso?

A integração da IA em um grande número de produtos de consumo levará a uma enorme pressão para coletar ainda mais dados a fim de treiná-la cada vez mais, mesmo que isso signifique não pedir permissão.

Um exemplo notável é a Clearview AI, que vem coletando imagens de pessoas da Web (obrigado, redes sociais) e usando-as para treinar sua IA de vigilância facial sem a permissão das pessoas em questão. Seu banco de dados contém cerca de 20 bilhões de imagens.

A Clearview está sujeita a todos os tipos de ações judiciais, multas e ordens de cessar e desistir por causa de seu flagrante desrespeito à privacidade das pessoas. Ela também teve que pagar inúmeras multas e resistiu a excluir dados, apesar das ordens dos órgãos reguladores em muitos países.

Acima de tudo, precisamos entender que, quanto mais usarmos a IA, mais as empresas desejarão coletar nossos dados pessoais para, por exemplo, nosso futuro assistente de voz, mais rápido para nos entender e nos influência fornecer respostas mais relevantes..

À medida que diferentes Inteligências Artificiais forem aplicadas a novas funções, elas se verão expostas a informações cada vez mais confidenciais.

O problema é que a onipresença da IA pode tornar a coleta de dados quase impossível de ser evitada.

A OpenAI parece estar se esforçando para respeitar a privacidade dos usuários do ChatGPT. A partir de maio de 2023, a empresa introduziu a capacidade de desativar o histórico de bate-papo, o que significa que as conversas iniciadas quando o histórico de bate-papo estiver desativado não serão usadas para treinar e aprimorar seus modelos. Além disso, eles estão trabalhando em uma nova oferta de assinatura do ChatGPT Business para profissionais e empresas, que não usará dados do usuário final para treinamento por padrão.

Eles também facilitaram a exportação de dados de usuários para maior transparência. Esse é um passo na direção certa, mas será que é realmente suficiente? Será que isso é um divisor de águas ou é simplesmente uma forma de a OpenAI ganhar nossa confiança enquanto continua a coletar dados em massa?

Observe que, uma vez que os dados tenham sido coletados, é muito fácil usá-los para fins que as pessoas nunca consentiram, já que o princípio se baseia na compilação de informações. A compartimentalização dessas informações seria um problema para o desenvolvimento, a eficácia e a relevância da IA.

Para concluir: o que o futuro reserva para a privacidade com a IA?

Já não é segredo como navegamos na Web – exceto, é claro, se você usar uma VPN (Rede Privada Virtual) -, mas a quantidade geral de dados coletados deve aumentar à medida que a IA e os chatbots melhorarem e se tornarem mais amplamente usados.

Portanto, por enquanto, todos nós estamos vendo a OpenAI como uma ferramenta fabulosa e meus pensamentos estão especialmente com os alunos que estão tendo um dia de campo com ela. Mas isso é apenas o começo. Vemos o ChatGPT da mesma forma que os primeiros usuários da Internet viam a Internet nos primeiros dias.

No momento, todos estão um pouco preocupados com a forma como os grandes grupos podem influenciar sutilmente nossa tomada de decisões e criar bolhas de filtro das quais é quase impossível escapar sem a ajuda da IA.

A Inteligência Artificial é uma ferramenta poderosa que pode levar a todos os tipos de novos desenvolvimentos, mas também a muitos abusos da privacidade de seus usuários. A questão de saber se ela será usada e desenvolvida de forma responsável continua em aberto.

Imagine se um modelo de IA fosse projetado e desenvolvido com o objetivo de controlar a população? Isso parece impensável para você? E, no entanto, todos nós já compramos algo na Internet e fomos influenciados por algoritmos, quer gostemos ou não.

Mateus Sousa da Silva
Mateus Sousa da Silva

Especialista em tecnologia e proteção de dados, com expertise em cibersegurança e jornalismo digital. Apaixonado por direitos digitais e privacidade online, oferece insights relevantes sobre as tendências tecnológicas atuais.