O uso responsável e sustentável da IA

“É preciso promover o uso responsável e sustentável da inteligência artificial, com a devida transparência, explicabilidade e auditabilidade”, destaca Alexandre Zavaglia Coelho, especialista em Governança e Ética de Inteligência Artificial.
Tema destaque na edição de 2024 do Web Summit Rio, discussões sobre inteligência artificial e sua regulamentação têm sido associadas a discussões sobre ética – afinal, somos humanos e vivemos também em um mundo analógico, onde há responsabilidades que devemos cumprir.
O desenvolvimento de uma inteligência artificial que respeite valores éticos e sociais exige a colaboração entre setores governamentais, empresas de tecnologia e a sociedade civil. Apenas por meio de um esforço coletivo será possível criar estruturas de governança robustas que assegurem o uso da IA em benefício de todos, sem colocar em risco a privacidade ou a autonomia dos indivíduos.
“Precisamos criar essa cultura de colaboração para estabelecer as diretrizes e boas práticas e, principalmente, para definir os padrões técnicos desses princípios, trazendo efetividade para a regulação que está sendo discutida no mundo todo”.
Com o avanço acelerado da IA, surgem preocupações sobre o impacto dessa tecnologia nas relações de trabalho e na manutenção dos direitos humanos. A automação e a tomada de decisões com base em algoritmos podem afetar profundamente setores como o mercado de trabalho, a educação e até mesmo o sistema judiciário. Para garantir que a IA seja usada de maneira justa e responsável, especialistas defendem a criação de regulamentações que estabeleçam limites claros para o uso de algoritmos em situações sensíveis, como o recrutamento de funcionários, a concessão de crédito e as decisões judiciais. A criação de “zonas de risco” para uso da IA, sugerida por alguns países, busca proteger a população de possíveis abusos e promover um equilíbrio entre inovação e segurança.
Outro aspecto fundamental nas discussões sobre IA e ética é a questão da autonomia e privacidade dos indivíduos. Tecnologias de IA, como reconhecimento facial e monitoramento de comportamento, levantam questões sobre vigilância em massa e controle social, podendo comprometer a liberdade individual. Em resposta a essas preocupações, algumas empresas e governos vêm investindo em IA de “código aberto”, permitindo que especialistas independentes inspecionem o funcionamento dos algoritmos e identifiquem possíveis vieses ou falhas de segurança. Esse movimento em direção a uma IA mais transparente também impulsiona a demanda por ferramentas que possibilitem uma auditoria rigorosa e contínua dos algoritmos, garantindo que eles estejam alinhados com os princípios de justiça e equidade que se busca na sociedade.
E é por isso que especialistas têm destacado que, mesmo aquilo que é tecnológico precisa prestar contas em todas as etapas, desde a coleta de dados até a implementação de algoritmos, uma vez que é o viés algorítmico que detém o poder de garantir equidade e diversidade no desenvolvimento desses sistemas. A inclusão do tema ética em cursos de ciência da computação e campanhas de conscientização pública são formas de garantir que todos os stakeholders compreendam os desafios e oportunidades apresentadas pela IA na sociedade, abrindo caminho para uma regulamentação que traga o uso responsável dessa tecnologia.