Vários governos mundiais estão cada vez mais nervosos com a caixa de Pandora da Inteligência Artificial (AI, na sigla em inglês) que foi aberta com o lançamento público do popular programa ChatGPT pela empresa OpenAI. Não está claro se o gênio pode ser forçado a voltar para a lâmpada.
Nesta semana, o Comissário de Privacidade do Canadá disse que estava investigando o ChatGPT, juntando-se a uma lista crescente de países — incluindo Alemanha, França e Suécia — que expressaram preocupações e estudam restrições sobre o chatbot, depois que a Itália o proibiu totalmente no domingo passado.
“A tecnologia de AI e os seus efeitos na privacidade são uma prioridade para o meu gabinete”, disse Philippe Dufresne, Comissário de Privacidade do Canadá, em um comunicado. “Temos de acompanhar — e ficar sempre à frente — dos rápidos avanços tecnológicos, e essa é uma das minhas principais áreas de atenção enquanto Comissário.”
A proibição da Itália foi resultado de um incidente no dia 20 de março em que a OpenAI reconheceu um bug no sistema que expôs as informações de pagamento dos usuários e o histórico dos chats deles. A OpenAI colocou brevemente o ChatGPT offline para corrigir o bug.
“Não precisamos de uma proibição das aplicações de AI, mas sim de formas de garantir valores como democracia e transparência”, disse um porta-voz do Ministério do Interior alemão à agência de notícias alemã, Handelsblatt, na segunda-feira.
Impactos da AI
A tentativa da Itália de proibir o ChatGPT surge em meio à crescente apreensão sobre o impacto que a inteligência artificial terá na privacidade e na segurança dos dados e seu potencial uso indevido.
Um think tank de IA, o Center for A.I. and Digital Policy, apresentou uma queixa formal na Comissão Federal de Comércio dos EUA no mês passado, acusando a OpenAI de práticas enganosas e desleais após a publicação de uma carta aberta assinada por vários membros de alto nível da comunidade tecnológica que pediam uma desaceleração do desenvolvimento da inteligência artificial.
A OpenAI tentou lidar com essas preocupações em um post no blog no dia 5 de abril, que falava sobre segurança da AI e que delineou o compromisso da empresa com a investigação e a cooperação a longo prazo em matéria de segurança com a comunidade de AI.
A OpenAI disse que visa melhorar a precisão factual, reduzindo a probabilidade de “alucinações”, ao mesmo tempo em que protege a privacidade do usuário e as crianças, incluindo a análise de opções de verificação de idade.
“Também reconhecemos que, como qualquer tecnologia, essas ferramentas apresentam riscos reais — por isso trabalhamos para garantir que a segurança seja incorporada em nosso sistema em todos os níveis”, escreveu a empresa.
A mensagem da OpenAI não agradou a alguns, que a chamaram de comunicado de relações públicas, por não ter abordado o risco existencial representado pela AI.”
Enquanto alguns soam o alarme para o ChatGPT, outros dizem que o chatbot não é o problema, mas sim uma questão mais ampla do uso pretendido pela sociedade.
“O que este momento proporciona é uma oportunidade de considerar que tipo de sociedade queremos ser — que regras queremos aplicar a todos igualmente, com ou sem inteligência artificial — e que tipo de regras econômicas servem melhor à sociedade”, disse Barath Raghavan, Professor Associado de Ciência da Computação na USC Viterbi ao Decrypt.
“As melhores respostas políticas não serão aquelas que visam mecanismos tecnológicos específicos da IA de hoje (que rapidamente estarão desatualizados), mas comportamentos e regras que gostaríamos de ver aplicados universalmente.”