Este artigo introduz uma geração inovadora de padrões sociotécnicos que ajudarão a impulsionar o discurso global sobre a Governança da Inteligência Artificial (IA). Esses padrões têm o potencial de abordar o que os esforços regulatórios e de governança atuais não podem: as questões críticas de interoperabilidade, explicabilidade e o avanço exponencial da IA em direção a maior inteligência e autonomia. Além disso, introduz um sistema de classificação para IA que propõe novas estruturas de governança para acomodar sistemas de IA cada vez mais inteligentes e autônomos.
Em 1950, Alan Turing colocou uma questão fundamental: "As máquinas podem pensar?". Hoje, estamos prestes a responder a essa pergunta com a criação de sistemas de IA que podem imitar nossas habilidades cognitivas, interagir conosco naturalmente e até mesmo parecer demonstrar o pensamento humano. A recente e rápida ascensão da IA generativa, em particular, inaugurou uma nova era para a inteligência artificial, introduzindo sistemas que mostram notáveis habilidades de nível humano na geração de conteúdo como texto, mídia e código de software.
Esses novos sistemas de IA são uma grande promessa. Eles também levantam sérias preocupações sobre a segurança, responsabilidade, ética, direitos de propriedade intelectual, justiça, precisão, parcialidade, explicabilidade e privacidade.
À medida que a IA continua a evoluir e opera cada vez mais perfeitamente em nossas vidas diárias e no mundo físico, esses riscos sem dúvida se multiplicarão.
O rápido desenvolvimento e a adoção generalizada da IA generativa alimentaram um debate global sobre o caminho mais eficaz a seguir na governança da IA. Embora tenha havido apelos para uma nova era de leis e regulamentações, e um crescente consenso global sobre a necessidade de estruturas universais de governança de IA, o melhor caminho a seguir permanece incerto.
Por exemplo, embora as abordagens tradicionais orientadas pelo mercado para a regulamentação de IA possam encorajar a inovação, elas também levantam preocupações sobre uma abordagem "winner-takes-all" que poderia resultar em uma pobreza de opções para os consumidores, uma concentração de poder e até agitação geopolítica.
As abordagens governamentais tradicionais de regulação e legislação também enfrentam limitações. A regulamentação e a legislação são frequentemente adotadas lentamente e podem resultar em frameworks conflitantes. Essa abordagem, se não for medida, tem o potencial de sufocar o crescimento, impedir a interoperabilidade e criar uma colcha de retalhos difícil de navegar de diretrizes de IA em todo o mundo.
As abordagens atuais para desenvolver estruturas de regulação e governança de IA estão apenas abordando a ponta do iceberg. Eles se concentraram em grande parte na imposição de padrões sociais às organizações e indivíduos que desenvolvem e implantam IA.
Por exemplo, muitas jurisdições se concentram na imposição de requisitos em torno da transparência, explicabilidade, responsabilidade, segurança e outros valores sociais ou centrados no ser humano.
Embora essas abordagens sejam lógicas, elas geralmente carecem de orientação técnica correspondente, criando desafios de implementação e conformidade. Elas também vão ter um limite. Ao se concentrar principalmente nos desenvolvedores e implantadores de IA em vez de nos próprios sistemas de IA, os reguladores correm o risco de negligenciar a trajetória dos sistemas de IA à medida que se tornam cada vez mais inteligentes e autônomos. Portanto, é crucial para o futuro da governança de IA que as estruturas regulatórias e de governança incluam o potencial dos próprios sistemas de IA para auto melhorar, auto adaptar-se e estabelecer redes com outras IAs, sensores e máquinas.
Criticamente, os futuros esforços regulatórios e de governança devem levar em conta a inevitável convergência da IA com sistemas robóticos e de Internet das Coisas (IoT), dando origem aos Sistemas Ciber-Físicos (CPS). A convergência do CPS com a IA pode levar ao surgimento de Sistemas Inteligentes Autônomos (AIS) que operam de forma autônoma em domínios digitais e físicos. O AIS inaugurará uma nova geração da web, alimentando vários aplicativos inteligentes, de assistentes inteligentes a cidades inteligentes e cadeias de suprimentos inteligentes. Semelhante à regulação inteligente do corpo pelo sistema nervoso autônomo, a AIS poderia orquestrar inúmeras atividades em segundo plano de nossas vidas, com crescente autonomia. A palavra autonomia significa "autorregulação" ou autogoverno. Portanto, a regulação e a governança de IA devem levar em conta os futuros sistemas de IA que podem se governar.
Os padrões técnicos, os fundamentos esquecidos das sociedades tecnológicas, desempenham um papel crítico na futura regulação e governança de IA – mas podem não ser suficientes.
Em maio de 2023, os líderes do G7 emitiram um comunicado conjunto pedindo o desenvolvimento e a adoção de padrões técnicos internacionais para reger o desenvolvimento e a implantação de IA. Recentemente, surgiram apelos semelhantes a normas técnicas por parte de partes interessadas privadas e públicas. Esses apelos são lógicos, pois as normas técnicas desempenharam um papel fundamental na formação do mundo moderno, fornecendo benefícios significativos para governos, desenvolvedores, fabricantes e consumidores.
Mas, desta vez, as normas técnicas por si só podem não ser suficientes. A IA está pronta para impactar a tecnologia e a sociedade de maneiras sem precedentes. O G7 reconheceu em comunicado essa tensão ao destacar a importância da "implementação social" de padrões técnicos de IA. O Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio dos EUA também alertou contra uma dependência excessiva de padrões puramente técnicos quando se trata de lidar com IA. O NIST sugeriu especificamente uma abordagem híbrida de desenvolvimento normas sociotécnicas. Indo mais longe do que as normas puramente técnicas, as normas sociotécnicas visam fazer a ponte entre a tecnologia e a sociedade.
Tecnologias emergentes guiadas por padrões sociotécnicos podem permitir que a IA e a AIS sejam tecnicamente sólidos, socialmente beneficiais, seguros, em conformidade com as leis e capazes de estar alinhados com as normas e valores da sociedade atual.
O desenvolvimento de padrões sociotécnicos para a governança de IA pode fornecer inúmeros benefícios. Esses padrões podem permitir que governos e reguladores atuem de forma coordenada para garantir proativamente a compatibilidade e a conformidade. Tais normas poderiam fornecer uma estrutura personalizável que permitiria aos reguladores em várias regiões implementar suas próprias regulamentações para IA, mantendo a interoperabilidade global.
Talvez o mais importante, os padrões sociotécnicos explicariam a trajetória potencial da IA da IA "estreita" de hoje (projetada para tarefas específicas dentro de domínios limitados), para a IA "geral" (aquelas capazes de para aprender, entender e aplicar o conhecimento em diferentes domínios) e, finalmente, para a IA "super inteligente" de amanhã (aquela que supera a inteligência de nível humano). No final, os padrões sociotécnicos podem fornecer um caminho para a governança de IA que acompanhe a evolução exponencial e a crescente autonomia das máquinas inteligentes.
Em 2016, o Institute of Electrical and Electronics Engineers (IEEE) – a maior associação de profissionais técnicos do mundo, cuja missão é promover a tecnologia para o benefício da humanidade – lançou a Iniciativa Global sobre Ética de Sistemas Inteligentes Autônomos para abordar preocupações éticas, legais e sociais em IA e design e desenvolvimento de tecnologia autônoma. Em 2020, o IEEE P2874 Spatial Web Working Group foi formado para liderar o desenvolvimento de padrões sociotécnicos para alinhamento, interoperabilidade e governança de IA e AIS.
Estas normas, que estão atualmente em elaboração, são informadas pela série Ethically-Aligned Design P7000 do IEEE de padrões que abordam direitos humanos, bem-estar, responsabilidade e transparência para IA e IAS.
Os padrões IEEE P2874 estão sendo desenvolvidos para atender às seguintes necessidades na construção de uma estrutura de governança global de IA:
Essa nova geração de padrões sociotécnicos está sendo desenvolvida para escalar na velocidade da evolução da IA. Ao serem adotadas globalmente, essas normas poderão nos permitir orientar sistemas de IA, mesmo aqueles que excedem a inteligência de nível humano. Esses padrões estabelecem as bases para a integração e adoção de tecnologias de IA minimizando o risco inerente à IA. Para alavancar esses novos padrões sociotécnicos, governos e reguladores precisarão adotar novas estruturas para a governança de IA.
À medida que a IA e a AIS evoluem em direção a maiores níveis de inteligência e autonomia, novas formas de governança necessariamente surgirão, levando em conta fatores como capacidades da inteligência, níveis de autonomia e confiabilidade dos sistemas de IA.
Atualmente vários frameworks de governança dos AIS estão em processo de convergência, que vão desde centralizados a federados e distribuídos, cada um com um nível de controle e autoridade decisória definidos. Tais estruturas permitirão que as partes interessadas selecionassem o nível desejado de autonomia que se sentem confortáveis em conceder a um sistema de IA para operar dentro de um domínio específico.
Além disso, para ajudar os reguladores e as partes interessadas a avaliar quais as estruturas de governança são adequadas e para avaliar de forma abrangente as capacidades e limitações dos AIS ao abrigo desses frameworks, há a proposição de um Sistema de Classificação Internacional AIS (AIRS) multinível. Semelhante aos níveis da Society of Automotive Engineers (SAE) usados para veículos autônomos, o AIRS se aplicaria a qualquer sistema alimentado por IA, classificando os níveis de inteligência e autonomia exibidos e fornecendo estruturas de governança correspondentes em cada nível.
Esses níveis e estruturas de governança podem substituir o sistema de classificação hierárquica que está sendo adotado em muitas jurisdições ao redor do mundo. Embora a regulamentação atual esteja focada em modelos individuais de IA, há a necessidade de governar a rede sobre a qual a IA e a AIS operarão.
Os sistemas de IA atuais são geralmente considerados como modelos em silos que não interagem entre si. O futuro da IA, no entanto, está em redes interoperáveis de agentes autônomos de IA trabalhando juntos para resolver problemas complexos e dinâmicos. Padrões sociotécnicos como os que estão sendo desenvolvidos dentro do GT IEEE P2874 fornecerão uma estrutura para uma abordagem holística e adaptativa para gerenciar essas redes AIS autônomas cada vez mais complexas.
As redes de AIS podem incluir diferentes níveis e tipos de máquinas inteligentes, exigindo uma estrutura de governança de IA que possa acomodar níveis dinâmicos e crescentes de complexidade, inteligência e autonomia.
As normas sociotécnicas concederiam às partes interessadas a flexibilidade para governar como julgarem apropriado, ao mesmo tempo em que garantem a interoperabilidade em toda a rede, independentemente da diversidade de sistemas envolvidos.
Quando os padrões sociotécnicos são acoplados aos vários modelos de governança propostos, tais padrões permitem a governança das atividades de sistemas e redes de IA diretamente, mantendo a flexibilidade para acomodar uma pluralidade de demandas regulatórias locais, nacionais e internacionais, valores sociais e direitos humanos. As normas sociotécnicas facilitam interações harmoniosas que se alinham com os valores humanos, em parte por viabilizar o direito como código.
Não podemos governar os sistemas de IA e as máquinas que eles irão alimentar da mesma forma que governamos os humanos. As máquinas não respondem à punição, nem estão atualmente vinculadas à empatia ou a preocupações éticas. Para criar sistemas de IA que permanecerão alinhados com nossos valores e interesses, precisaremos de um meio de codificar nossos princípios e diretrizes diretamente no software e sistemas de IA.
Os padrões IEEE P2874 podem converter regulamentos em um formato legível por máquina, compartilhável por máquina e executável por máquina. Essa "lei como código" é um meio de fechar a lacuna entre os valores sociais, as políticas regulatórias, os processos legais e os mecanismos tecnológicos, levando a benefícios e serviços de IA mais equitativos e acessíveis.
As primeiras versões dos padrões sociotécnicos em desenvolvimento no IEEE já foram testadas com sucesso. O projeto de pesquisa Flying Forward 2020 (FF2020) da Comissão Europeia está revolucionando a mobilidade aérea urbana, permitindo que drones movidos a IA cumpram as leis regionais enquanto navegam de forma autônoma no espaço aéreo urbano em vários países da UE. Através de uma infraestrutura digital geoespacial e de novos padrões sociotécnicos, o FF2020 demonstrou que a conformidade autônoma com a lei, a nível regional e em toda a UE, não só é possível como comprovada.
Imagine o impacto do AIS construído sobre padrões sociotécnicos globais interoperáveis que operam em todos os setores da economia.
Esses sistemas poderiam ser alinhados aos nossos valores e promover relações simbióticas com os seres humanos, ampliando nossos pontos fortes e nos ajudando a superar nossas fraquezas.
Padrões sociotécnicos poderiam ser um guia confiável para um mundo cada vez mais complexo, interconectado e dinâmico, transcendendo a própria noção de "inteligente", permitindo que nós e os sistemas em que operamos nos tornemos cada vez mais inteligente.
Padrões sociotécnicos interoperáveis permitirão que a IA e o AIS se adaptem perfeitamente às mudanças em tempo real, aumentando nossa segurança e satisfação. Esses padrões se tornam a base sobre a qual dispositivos e sistemas inteligentes evoluem coletivamente para se tornarem mais inteligentes por meio de suas interações.
O benefício de normas globais e interoperáveis inclui transportes mais eficientes e eficazes, uma saúde mais personalizada, uma educação mais personalizada e acessível, uma melhor coordenação na resposta à crise humanitária e ambiental, uma cadeia de suprimentos global que opera em um nível sem precedentes de resiliência e otimização, reduzindo o desperdício, a poluição e o consumo de energia.
A IA que aproveita o poder da inteligência natural pode abrir caminho para uma governança mais inteligente e, eventualmente, um mundo mais inteligente.
Em um futuro não muito distante, os sistemas de IA podem evoluir além dos grandes modelos de linguagem para se tornarem "Agentes Inteligentes" pequenos, ágeis, adaptáveis, explicáveis e cada vez mais autônomos. Semelhante à como a inteligência se manifesta na natureza, os agentes compartilhariam conhecimento, fariam perguntas e demonstrariam curiosidade sobre o mundo.
Ao contrário dos sistemas de IA complexos e ávidos por dados de hoje, esses agentes exigiriam treinamento mínimo, dependendo, em vez disso, de quantidades menores de dados altamente contextualizados – o que se poderia chamar de "dados inteligentes", em oposição às abordagens atualmente onipresentes de "big data".
Embora os agentes sejam especializados para realizar tarefas específicas em um nível especializado, eles teriam a capacidade de se comunicar uns com os outros, trocando conhecimento continuamente para enfrentar desafios complexos e dinâmicos, mantendo a capacidade de adquirir novas informações. Essencialmente, esses agentes operariam de maneira semelhante à inteligência humana, mas em uma escala e velocidade muito além de nossas capacidades.
Uma estrutura comprovada conhecida como "Inferência Ativa", desenvolvida pelo renomado neurocientista e teórico Karl Friston, tem o potencial de preencher a lacuna entre a neurociência e a IA. A Inferência Ativa tem demonstrado aplicações práticas em várias disciplinas, incluindo neurociência, psicologia, teoria da mente e robótica. Atualmente, esforços estão em andamento para utilizar a Inferência Ativa no desenvolvimento de sistemas de IA genuinamente inteligentes.
Aproveitando insights do funcionamento interno do cérebro humano, baseado em Inferência Ativa os sistemas de IA podem fazer "introspecção", oferecendo explicações detalhadas para suas ações, enquanto melhoram continuamente sua inteligência e compreensão do mundo ao seu redor.
A inferência ativa pode permitir uma governança mais inteligente, capacitando sistemas de IA para se tornarem explicáveis, responsáveis e adaptáveis.
Esses sistemas podem então se alinhar melhor com nossos objetivos e valores, cultivando confiança e transparência mesmo quando se tornam autogovernados.
Neste artigo, exploramos como a governança de IA mais inteligente vai além de restrições e controles, permitindo-nos direcionar a IA em direção às suas capacidades mais promissoras. Ao alavancar padrões sociotécnicos e novas abordagens para IA, uma governança de IA mais inteligente resulta em sistemas seguros, explicáveis e compatíveis. Esses sistemas poderiam permitir um mundo mais inteligente, onde os Sistemas Inteligentes Autônomos nos libertando de tarefas físicas e mentais mundanas, permitindo-nos concentrar-nos na inovação, autorrealização, criatividade e novos horizontes.
Antonio Emilio Freire
é Board Member, Auditor do Distrito Federal. Nos últimos anos vem atuando no aperfeiçoamento da Gestão de Riscos e da Governança Corporativa no Brasil. Profunda experiência adquirida em empresas globais com 14 anos nos EUA, Nova Zelândia e Suíça. Fundador dos Cursos ESG de Verdade.
emilioabf@yahoo.com