Com a viralização de ferramentas que fazem o uso da inteligência artificial (IA) e o constante progresso da tecnologia, diversas questões acabam surgindo. Uma das mais delicadas seria uma possível censura da inteligência artificial. Discutir sobre isso acaba sendo imprescindível, tendo em vista todo o potencial dos novos recursos digitais. Portanto, vamos entender um pouco sobre o que isso pode significar para o futuro do mundo e, obviamente, do Brasil!
O que seria “censura na Inteligência artificial”?
A censura neste âmbito tecnológico refere-se à prática de restringir, filtrar ou limitar o acesso a determinados conteúdos gerados ou apresentados por sistemas de Inteligência Artificial. Isso pode ser feito por razões como políticas governamentais, restrições legais, diretrizes de plataformas ou até mesmo preocupações éticas. Mergulharemos de forma mais técnica nesse assunto, no próximo bloco informativo.
Formas de censura da inteligência artificial
Existem diferentes formas de possíveis censuras no mundo IA, incluindo:
Censura de dados de treinamento
Os modelos de IA são treinados com conjuntos de dados que podem conter preconceitos ou vieses indesejados. A censura de dados de treinamento envolve filtrar ou modificar os dados para reduzir preconceitos e garantir resultados mais justos e imparciais.
Censura de conteúdo gerado por IA
Algoritmos de IA podem gerar automaticamente textos, imagens, vídeos e outros tipos de conteúdo. A censura nesse contexto envolve filtrar ou bloquear o conteúdo gerado pela IA que viola diretrizes ou políticas estabelecidas.
Censura governamental
Governos podem impor restrições à liberdade de expressão na inteligência artificial, limitando o acesso a determinados tipos de informações, bloqueando sites ou monitorando a comunicação online. Isso pode ser feito com o objetivo de controlar o fluxo de informações ou evitar a propagação de conteúdos considerados perigosos ou ilegais.
O envolvimento político na censura da inteligência artificial
O envolvimento político na censura da Inteligência Artificial pode assumir diferentes formas, dependendo do contexto e dos objetivos dos políticos envolvidos. Alguns exemplos incluem:
Legislação restritiva
Políticos podem propor leis ou regulamentos que limitem a capacidade da inteligência artificial de acessar ou exibir certos tipos de conteúdo. Isso pode abordar questões como discurso de ódio, desinformação, conteúdo sexualmente explícito, propaganda política, entre outros.
Monitoramento e supervisão
Políticos podem buscar medidas de monitoramento e supervisão mais rigorosas sobre os sistemas de inteligência artificial para garantir que estejam em conformidade com as diretrizes estabelecidas. Isso pode envolver auditorias periódicas, a exigência de relatórios de transparência e a nomeação de órgãos reguladores.
Restrição de dados
Políticos podem buscar restringir ou controlar o acesso a determinados conjuntos de dados usados para treinar modelos de IA. Isso pode envolver regulamentos sobre a coleta, armazenamento e uso de dados, com o objetivo de evitar o uso indevido ou discriminatório dessas informações.
Acordos de cooperação com plataformas
Políticos podem trabalhar em estreita colaboração com plataformas de tecnologia para desenvolver políticas de moderação e filtragem de conteúdo. Isso pode envolver a definição de diretrizes mais rígidas para a remoção de conteúdo ou a implementação de sistemas de IA que identificam e bloqueiam automaticamente determinados tipos de conteúdo.
Sucesso na censura da inteligência artificial
Prever com precisão o sucesso da censura na inteligência artificial é complexo, pois envolve vários fatores. Nesse sentido, alguns pontos a serem considerados incluem:
Eficácia técnica
A realização de uma censura dependerá da eficácia das tecnologias e algoritmos utilizados. Os sistemas de IA precisam ser capazes de identificar com precisão o conteúdo censurável e tomar medidas apropriadas.
Escopo e alcance
Além disso, o sucesso da censura também depende do escopo e alcance das medidas adotadas. Isto é, restringir apenas algumas plataformas, tipos de conteúdo ou regiões pode levar à migração do conteúdo para outras plataformas ou meios de comunicação.
Adaptação e evasão
Por outro lado, aqueles que desejam contornar a censura podem desenvolver técnicas para evadir a detecção dos sistemas de IA, o que pode representar um desafio para a eficácia da censura.
Implicações éticas e legais
O sucesso da censura também precisa ser avaliado em termos de suas implicações éticas e legais. Ou seja, encontrar um equilíbrio entre combater a desinformação e preservar a liberdade de expressão e a privacidade é fundamental.
Regulamentação da inteligência artificial
Por se tratar de uma tecnologia “nova” e extremamente poderosa, a IA precisa, de fato, de regulamentações que fomentem o seu uso consciente e ético. A inteligência artificial não foi banida ou censurada por completo – ainda -, porém, já recebeu algumas regulamentações ao redor do mundo.
A china foi o primeiro país a impor algum tipo de regulamentação sob a tecnologia. O país adotou uma nova e abrangente regulamentação que redefine o cenário da geração de conteúdo por meio dessa tecnologia de vanguarda.
Nos Estados Unidos, a tecnologia recebeu a primeira regulamentação após a circulação de um vídeo deepfake de um discurso presidencial do atual presidente Joe Biden.
Em 30 de outubro de 2023, o presidente dos EUA, assinou a primeira ordem executiva (algo como um decreto) para regulamentar a IA no país. Assinado na segunda-feira (30), o texto estabelece padrões de segurança e “define ações abrangentes para proteger os americanos dos riscos potenciais dos sistemas de IA”.
Censura da inteligência artificial em última análise…
Sobretudo, a pauta sobre uma possível censura no campo da Inteligência Artificial tende a ser bem complexa e multifacetada. Envolve a restrição ou filtragem de conteúdo gerado e/ou apresentado pelos vastos sistemas de IA, por motivos diversos, como: políticas governamentais, restrições legais, diretrizes de plataformas e outros campos, como discutido anteriormente.
Decerto, a legislação e o envolvimento político desempenham um papel importante nesse contexto. Aliás, os políticos podem e já estão movimentando discussões para propor leis restritivas, buscar monitoramento e supervisão mais rigorosas, restringir o acesso a dados ou buscar acordos de cooperação com plataformas para combater a desinformação. Todavia, é algo muito delicado. Vale ressaltar que, assim com a Inteligência Artificial, a Legislação segue com constante mudança, logo, é extremamente importante se manter atualizado(a) sobre cada aspecto de mudança envolvendo esses temas. Entretanto, a partir de fontes seguras, é claro!
Prever o sucesso da censura na inteligência artificial é um desafio e tanto, pois depende da eficácia técnica dos sistemas de IA, do escopo e alcance das medidas adotadas, da adaptação e evasão dos usuários e das implicações éticas e legais envolvidas. Algo, de fato, importante e pertinente no território nacional, é a implementação da “PL das Fake News”.