Imprimir artigo

10 maneiras para financiadores abordarem IA generativa agora

Em vez de estar pronta para um futuro distante, a filantropia precisa trabalhar para se preparar para o aqui e agora

Por Kelly Born

(Imagem gerada no DALL-E pela autora e sua filha, Ellery Born)

Até recentemente, a chegada da inteligência artificial generativa parecia estar num futuro distante. Até então, a maioria dos financiadores que investem em IA – incluindo McGovern, Schmidt Futures e Open Philanthropy – concentraram-se principalmente na compreensão dos riscos potenciais dessa tecnologia, ou no apoio aos impactos positivos dela na sociedade a longo prazo. Outras, como as Fundações Ford, MacArthur e Hewlett, e a Omidyar Network, focaram na criação de capacidade para enfrentar os riscos e oportunidades atrelados a uma vasta gama de tecnologias, incluindo, entre outras, a inteligência artificial. Mas como o lançamento do GPT4 pela OpenAI pegou o mundo de surpresa, menos financiadores tiveram tempo para pensar em como lidar com os riscos imediatos e não existenciais – e oportunidades surpreendentes – apresentados pela IA generativa, ou como ajudar grupos que atualmente trabalham no interesse público a tecnologia, a política cibernética ou na tecnologia responsável por desenvolver a sua capacidade para melhor enfrentar os desafios de hoje.

Leia também:

Mineração de dados contra minas terrestres

Uma nova visão para o mundo high-tech

O futuro é agora. Neste momento incerto, à medida que os potenciais casos de uso da IA generativa começam a tornar-se aparentes, há pelo menos 10 coisas que os financiadores podem fazer para ajudar o campo existente de organizações sem fins lucrativos relacionadas com a tecnologia – e a sociedade em geral – a prepararem-se melhor.

Obviamente, os financiadores que trabalham em áreas temáticas específicas – clima, saúde, educação ou, no meu caso, democracia – podem apoiar os esforços a jusante para preparar o governo e a sociedade civil nos seus respectivos setores para aproveitarem as oportunidades e mitigarem os riscos de IA em suas áreas específicas de preocupação. Isso inclui:

  1. Compreender e desenvolver diretrizes e proteções para o uso governamental de IA. Os efeitos discriminatórios da IA preditiva nas decisões de penas de prisão são agora bem compreendidos, e juízes e advogados já estão utilizando IA generativa para redigir opiniões. No entanto, surpreendentemente pouco se sabe sobre como o governo está usando a IA fora do sistema judicial, muito menos sobre quais são, ou deveriam ser, os limites de proteção. Um relatório de 2020 de pesquisadores da Stanford Law School e da NYU School of Law documentou que quase metade das 142 agências federais pesquisadas já haviam experimentado aplicações de IA, inclusive para adjudicar benefícios por invalidez e se comunicar com o público. Ajudar os líderes do governo a determinar as melhores práticas em torno do uso da IA é fundamental por pelo menos três razões: o governo tem a obrigação legal de proteger os direitos civis dos cidadãos, a adoção destas tecnologias pelo governo federal terá um impacto em enorme escala e porque o governo será um elemento dominante neste espaço, os padrões de aquisição definidos pelo Estado terão efeitos indiretos significativos.

O Poder Executivo já fez muito. Em 2020, a Ordem Executiva 13.960 exigia que todas as agências federais civis catalogassem seus usos não classificados de IA (embora os resultados tenham sido decepcionantes e, para a maioria das agências, pouco se saiba até mesmo sobre fatos básicos, como se os modelos de IA foram desenvolvidos por contratantes externos, como são estimados 33% dos sistemas de IA do governo, ou pela própria agência). Para qualquer área problemática com a qual um determinado financiador se preocupa, é fundamental compreender como o governo já está usando IA em sua área temática, assim como diretrizes e melhores práticas mais específicas para informar se, quando e como o Congresso, os tribunais e agências governamentais específicas devem implantar novas tecnologias. Em setembro deste ano, o governador da Califórnia tomou medidas semelhantes para melhor documentar, melhorar e reduzir os riscos do uso de IA pela Califórnia. Ao mesmo tempo, a Estrutura de Gestão de Riscos de IA do Instituto Nacional de Padrões e Tecnologia (NIST) oferece um bom começo, mas é por definição “não específica do setor” e precisará ser significativamente personalizada para diferentes públicos. Ao mesmo tempo, o Gabinete de Gestão e Orçamento foi encarregado de emitir um projeto de orientação para o desenvolvimento, aquisição e utilização de sistemas de IA por agências federais. Previsto para a metade do ano passado, já está vários meses atrasado. Uma vez disponível para comentários públicos, isso (juntamente com uma esperada Ordem Executiva e uma Estratégia/Quadro Nacional, que estava previsto para o final de novembro de 2023) exigirá que os grupos existentes da sociedade civil desenvolvam uma capacidade específica muito maior em IA, se quiserem fornecer contribuições significativas.

  1. Desenvolver a capacidade do governo (e da sociedade civil) para utilizar a IA. Mesmo com o conhecimento adequado e as proteções implementadas, os líderes governamentais ainda precisarão desenvolver a capacidade para empregar essas tecnologias de forma significativa – especialmente a nível estatal e local. Sem isso, o governo e a sociedade civil ficarão ainda mais atrás do setor privado na sua capacidade de fornecer resultados aos seus círculos eleitorais e na proteção das comunidades mais vulneráveis que poderão ser prejudicadas pelas tecnologias. Já estamos vendo grupos como a Climate Change AI explorando a utilização da IA para informar decisões relativas à concepção de “estradas, redes elétricas e condutas de água [que] devem ser concebidas para contabilizar a frequência e a gravidade cada vez maiores dos eventos climáticos extremos”. A Climate Change AI também procura usar a tecnologia para “identificar áreas vulneráveis, fornecer previsões localizadas e incorporar dados históricos ou proxy para identificar que infraestrutura é necessária”. Tanto o governo como as organizações sem fins lucrativos de qualquer área poderão em breve utilizar estas tecnologias para avaliar opções e prováveis impactos políticos. A nova Ordem Executiva do governador da Califórnia, Gavin Newsom, também apela, com razão, ao desenvolvimento de materiais de formação governamental sobre IA. Para ajudar o governo e as organizações sem fins lucrativos a monitorarem e para ajudar a mitigar os prováveis usos discriminatórios destas tecnologias, eles terão de ser treinados rapidamente. A maioria dos cursos básicos, campos de treino e módulos de formação compartilhados que foram desenvolvidos até agora destinam-se ao setor privado. A Parceria para o Serviço Público está formando líderes em agências federais agora, enquanto o Instituto Stanford para a Inteligência Artificial Centrada no Ser Humano (HAI) forma funcionários do Congresso em questões políticas de IA através do seu bootcamp anual de verão e está desenvolvendo novos trabalhos centrados na sociedade civil. O governo precisará de mais ajuda para acompanhar a evolução das ferramentas. Além disso, os grupos da sociedade civil devem, no mínimo, estar mais bem equipados para responder e, em alguns casos, precisarão da capacidade para utilizar eles próprios estas ferramentas (quando bem alinhados com as suas missões – e não como uma distração delas).

O trabalho acima pode ser facilmente centrado na área-cerne de qualquer financiador; por exemplo, na compreensão de como a EPA (Agência de Proteção Ambiental dos Estados Unidos) está utilizando a IA e que proteções devem ser implementadas, ou na formação de intervenientes do governo e da sociedade civil que trabalham na política habitacional para melhorar a sua compreensão destas tecnologias. Como a filantropia é geralmente organizada por questões verticais como a saúde, a educação ou o ambiente, é mais fácil para a maioria dos financiadores resolver os problemas a jusante, uma vez que as novas tecnologias começam a afetar as questões-alvo.

No entanto, os esforços centrados exclusivamente nas nossas questões verticais deixam os financiadores na posição de lidar com as demais consequências, ano após ano, num futuro próximo. O campo está menos bem organizado para abordar questões transversais como jornalismo, democracia e tecnologia. Mas a IA generativa é – tal como a própria internet – uma ferramenta fundamental. Ela já está sendo incorporada em milhares de recursos da camada de aplicação.

Por isso, são necessárias intervenções a montante para enfrentar os desafios da IA que têm impacto em todas as áreas problemáticas. Para resolver os problemas na sua essência, são necessárias várias ações fundamentais, mas que não se bastam. Tais esforços oferecem um impacto alavancado, melhorando os efeitos destas tecnologias em todas as áreas problemáticas.

  1. Transparência e acesso aos dados. Em primeiro lugar, o requisito mais essencial é que os governos e a sociedade civil tenham visibilidade sobre a forma como as ferramentas de IA estão sendo utilizadas. Isso inclui o grau de parcialidade, explicabilidade e interpretabilidade dos inputs e resultados; o grau em que esses resultados estão “alinhados” e são responsáveis pelos interesses dos utilizadores (e da sociedade); a frequência de suas “alucinações”(respostas confiantes da IA que contém informações falsas) e muito mais. O acesso aos dados será uma condição necessária, mas não suficiente, para quaisquer esforços destinados a compreender os impactos, responsabilizar as empresas e proporcionar reparação aos indivíduos ou comunidades prejudicados. No entanto, neste momento, em grande parte devido a preocupações com a privacidade, empresas como a OpenAI adotaram a política de eliminação de dados de utilização após três meses. Isso tornará quase impossível para os governos, acadêmicos ou a sociedade civil compreenderem como estas ferramentas estão sendo utilizadas, ao longo do tempo, e os seus impactos.

Ainda há trabalho a se fazer para determinar o equilíbrio certo entre proteger a privacidade e garantir a transparência, e para definir exatamente que tipos de lisura são necessários: nos parâmetros e conjuntos de dados de formação, na explicabilidade e interpretabilidade dos resultados, ou em algo mais? Serão necessários quadros de transparência claros para garantir que a informação correta seja disponibilizada, a exemplo do que o Centro de Política Cibernética de Stanford (onde trabalhei anteriormente) ajudou a desenvolver para os meios de comunicação social. Essa transparência permitiria o desenvolvimento de tabelas de resultados e outras ferramentas comparativas para informar o governo e os consumidores sobre quais produtos de IA utilizar. Dito isto, desenvolver a infraestrutura técnica para permitir a lisura, tanto entre plataformas como em grande escala, não é tarefa simples. Grupos como o OpenMined estão desenvolvendo projetos, mas será necessária pressão pública, ou regulamentação, se as empresas quiserem compartilhar dados.

  1. Advocacy pelo financiamento da investigação. Em retrospecto, a filantropia investiu mais de 100 milhões de dólares para construir centros de investigação dedicados à compreensão dos danos e (em menor grau) às soluções potenciais para a desinformação. Mais de US$ 100 milhões foram investidos pelo governo dos EUA, inclusive pela National Science Foundation (NSF), pelo Global Engagement Center e outros. No que diz respeito à IA, no ano passado, a National Science Foundation anunciou a sua nova direção de Tecnologia, Inovação e Parcerias, ou TIP (a primeira mudança diretiva em 30 anos) – no entanto, a investigação que irá apoiar parece mais provável de privilegiar comercialmente (em vez de socialmente) aplicações benéficas da IA. Em maio, a NSF anunciou planos para investir quase 500 milhões de dólares numa rede de investigação de Institutos de IA, alcançando quase todos os estados dos EUA. No entanto, a ênfase parece muito maior no aproveitamento das oportunidades do que na mitigação dos riscos. A investigação orientada para o risco sobre IA também deve ser financiada, e há um papel crítico para a filantropia ao defender que esta investigação seja financiada não pelo campo, mas pelos próprios laboratórios de IA. Por exemplo, um fundo de investigação conjunto para o qual os esses laboratórios contribuam com 1% dos lucros anuais – um fundo administrado de forma independente, supervisionado por um grupo de líderes da sociedade civil e sem a capacidade dos laboratórios de escolher acadêmicos ou tópicos – ajudaria a compreendermos melhor os impactos da IA na sociedade.

  2. Instituições colaborativas formais. Tem havido muitos apelos recentes para alguma forma de “mesa” multissetorial: uma Chamada de Christchurch sobre Resultados Algorítmicos semelhante à chamada original de Christchurch, ou uma mesa equivalente ao Fórum Global da Internet para Combater o Terrorismo (GIFCT), que combate conteúdos terroristas online. Tal entidade permitiria que os laboratórios de IA colaborassem entre si, à medida que novas vulnerabilidades são descobertas ou novas melhores práticas de proteção são desenvolvidas, com as plataformas de redes sociais, que são os prováveis distribuidores do conteúdo gerado por estes laboratórios de IA, com os líderes da sociedade civil, que têm maior probabilidade de observar os danos causados às comunidades, e com os governos, para trabalharem para representar os interesses do público. A Parceria sobre IA, fundada em 2016 e agora com quase 100 parceiros, tem trabalhado para garantir inovações políticas e mudanças nas práticas públicas. A OpenAI acaba de anunciar seu novo Frontier Model Forum, com o objetivo de criar “um novo órgão da indústria para promover o desenvolvimento seguro e responsável de sistemas de IA de fronteira: avançando na pesquisa de segurança de IA, identificando melhores práticas e padrões e facilitando o compartilhamento de informações entre os legisladores e a indústria”. Mas ainda há muito a fazer para determinar os papéis distintos destes diferentes organismos e para garantir uma participação significativa da sociedade civil em fóruns que são largamente liderados e fortemente financiados pela indústria.

  3. Informar as melhores práticas e códigos de conduta voluntários da indústria. Todas as indústrias têm condutas próprias. Muitos têm códigos voluntários, sendo o sistema de classificação voluntária da Motion Picture Association um excelente exemplo. Dados os desafios na aprovação de legislação nos Estados Unidos e a falta de aplicabilidade direta de pelo menos alguns elementos da Lei de IA da UE ao contexto dos EUA, os códigos de prática ou normas da indústria oferecem um caminho mais imediato para (embora provavelmente menos transformador) impacto. A Declaração de Direitos da IA (AI BoR) do Escritório de Política Científica e Tecnológica (OSTP) é um passo na direção certa, embora de nível relativamente alto. Um número crescente de grupos está experimentando a aplicação de conceitos como as assembleias de cidadãos – permitindo a participação pública estruturada – na concepção e gestão de plataformas tecnológicas. A Parceria para a IA também se dedica em grande parte à colaboração entre a indústria e a sociedade civil para desenvolver quadros de auto-regulação. Outros esforços, como o Projeto de Inteligência Coletiva, estão explorando o trabalho em torno da “IA constitucional”, um método voluntário para as empresas treinarem os seus sistemas de IA “utilizando um conjunto de regras ou princípios que funcionam como uma ‘constituição’ para o sistema de IA”. A contribuição contínua da sociedade civil será fundamental.

  4. Defesa de novos modelos de IA de interesse público. O campo da IA é atualmente dominado por empresas privadas com incentivos ao lucro. Diferentes modelos financeiros merecem consideração. Em vez de assumir que as empresas devem liderar, deveria haver uma opção pública concebida para servir o interesse público. O desenvolvimento de modelos de IA é extremamente caro e requer vastos recursos computacionais. No final de julho, foi apresentado um projeto de lei bipartidário para criar o Recurso Nacional de Pesquisa em Inteligência Artificial (NAIRR). A lei daria aos investigadores de universidades, organizações sem fins lucrativos e governo acesso às “ferramentas poderosas necessárias para desenvolver sistemas de IA de ponta que sejam seguros, éticos, transparentes e inclusivos”. Será necessário maior apoio público para ver avanços.

  5. Desenvolver a capacidade do governo e da sociedade civil para gerir a IA. Os governos de todo o mundo têm lutado para acompanhar o atual ritmo tecnológico de mudança, muitas vezes não conseguindo avaliar e mitigar com sucesso as externalidades associadas até que danos significativos tenham sido causados. Aqui estão (pelo menos) três maneiras de ajudar o governo a acompanhar melhor o setor privado:

  • Apoie auditorias e avaliações de impacto. Todas as empresas de IA estão, presumivelmente, realizando algum nível de auditoria para garantir a segurança e fiabilidade dos seus modelos, mas provavelmente sem o nível de atenção aos riscos sociais e políticos que essas tecnologias podem representar. As avaliações de impacto também devem ser realizadas externamente, pelas partes interessadas da sociedade civil, para compreender quaisquer danos sociais ou ambientais adicionais que as empresas possam não priorizar por si próprias. No entanto, hoje, o campo de especialistas que compreendem a IA é cada vez mais pequeno: poucos sabem o suficiente para conceber os requisitos para tais auditorias e avaliações, e muito menos sabem administrá-las em grande escala. Por esse motivo, é necessário apoio para desenvolver normas, assim como formação para melhorar as competências dos engenheiros, permitindo que aqueles que já são tecnicamente proficientes desenvolvam mais rapidamente as competências necessárias para auditar essas novas tecnologias.

  • Melhore a capacidade de consultoria. Num futuro próximo, há necessidade de um grupo ágil de especialistas em IA que os governos e ONGs de todo o mundo possam consultar à medida que começam a desenvolver regulamentos. Mas a procura de especialistas que compreendam a IA é tão elevada que os grupos governamentais e da sociedade civil não conseguirão formar pessoal por conta própria. Esforços como o Public Technology Leadership Collaborative da Data & Society, um coletivo de aprendizagem entre pares de acadêmicos, investigadores e líderes governamentais, poderiam ajudar a preencher esta lacuna. Capacidade consultiva adicional poderia ser desenvolvida por grupos como o Tech Congress ou o Integrity Institute para, por exemplo, contratar um grupo de especialistas em IA e emprestar 10% do seu tempo a organizações sem fins lucrativos e governos em todo o mundo que procuram aconselhamento sobre projetos de legislação, ou procurando testar a resistência de suas posições de defesa de direitos.

  • Aprimore a infraestrutura educacional. A longo prazo, as instituições acadêmicas de todo o país — e do mundo — precisarão melhorar as competências dos seus currículos para criar cursos personalizados e novos programas de graduação. O MIT, o já mencionado Centro de Política Cibernética de Stanford, o Berkman Klein de Harvard, o Centro de Segurança e Tecnologia Emergente de Georgetown e outros já estão começando a preencher esta lacuna. Através da Rede de Universidades Tecnológicas de Interesse Público da New America, 64 instituições de ensino superior nos Estados Unidos (e crescendo) comprometeram-se a garantir que tecnólogos emergentes de todos os tipos estejam equipados para compreender a complexidade sociotécnica do seu trabalho, mas precisam de mais apoio.

  1. Desenvolvimento de nova teoria jurídica. Há um trabalho significativo a ser feito para traduzir a teoria jurídica existente para aplicá-la aos danos sociais causados pelas tecnologias modernas. A maior parte da teoria jurídica dos EUA, por exemplo, enfatiza os danos individuais, enquanto muitos dos danos associados às tecnologias mais recentes – como a tomada de decisões algorítmica tendenciosa que afeta classes inteiras de pessoas, ou as violações da privacidade associadas à coleta e utilização de dados – têm componentes coletivas. Da mesma forma, os direitos de autor e a propriedade intelectual estão lutando para acompanhar a forma como a IA generativa está reutilizando materiais criativos. As leis antitruste dos EUA estão desatualizadas, privilegiando os danos nos preços (o que se revelou difícil de aplicar no contexto das redes sociais, onde as plataformas são muitas vezes gratuitas). A legislação antitruste pode ser igualmente difícil de aplicar no caso da IA, se os laboratórios decidirem passar de um modelo de assinatura paga para um modelo gratuito (publicitário). Da mesma forma, as leis de liberdade de expressão foram desenvolvidas muito antes da existência da Internet e, portanto, baseavam-se num ambiente de fala onde a capacidade de falar era a principal preocupação, em vez da capacidade de ouvir, de ser ouvido ou de fazer sentido da verdade. As faculdades de direito precisarão de mais financiamento para acompanhar. Além disso, precisaremos de muito mais assistência jurídica e capacidade para apoiar aqueles que sofreram danos relacionados com a IA.

  2. Informar a mudança narrativa. O problema mais a montante de todos é a questão de como nós, como sociedade, vemos o papel da tecnologia nas nossas vidas. Como contamos a história da IA generativa?

Não há muito tempo, foi projetado que, tendo em conta o envelhecimento da população, os robôs assumiriam o cuidado de 80% da população idosa do Japão, e aqui foram investidos bem mais de 300 milhões de dólares em financiamento governamental. Em 2023, as greves de atores e escritores dos EUA sublinharam questões sobre o papel que queremos que os humanos desempenhem no futuro da criatividade e da arte. A ascensão da IA levanta muitas questões importantes: Que aspectos da experiência humana estamos dispostos a automatizar? Onde queremos traçar o limite? Quanta concentração deveria ser permitida num mercado onde os efeitos de rede são reais? Deverá o setor privado dominar uma tecnologia tão abrangente como a IA, ou deverá haver uma opção de interesse público? Qual o papel que a privacidade deve desempenhar?

Essas são questões complexas. Mas hoje, quando novas tecnologias são introduzidas, espera-se que muitos em todo o mundo simplesmente lidem com isso – em vez de, como tem sido a abordagem da Europa, assumirem uma postura mais pró-ativa na definição dos limites que as novas tecnologias devem respeitar, e dos benefícios públicos que elas devem entregar. Essas questões são particularmente prementes, dados os riscos associados às ferramentas generativas de IA destinadas ao público, lançadas pouco antes de uma grande eleição presidencial nos EUA, num momento da história em que a confiança é baixa, as democracias em todo o mundo estão vacilantes e a polarização e a violência política dos EUA estão escalando.

A Declaração de Direitos da IA dos EUA é um bom começo, passando de ajustes nas bordas para a afirmação de um conjunto positivo de direitos que protegem todas as pessoas dos riscos da IA generativa. Grupos como o AI Now estão pensando de forma semelhante através da narrativa.

Nos EUA, para tecnologias estrangeiras como o TikTok, o governo tem sido muito mais ativista. Mas seja por falta de pressão pública, porque estas são tecnologias desenvolvidas internamente, porque são motores do nosso crescimento econômico e do nosso poder global, ou porque os gigantes da tecnologia estão agora entre os maiores lobistas na colina (com o Facebook e Amazon agora classificadas como os dois maiores gastadores de lobby corporativo no país, eclipsando os líderes anteriores do petróleo e do tabaco), os Estados Unidos tiveram muito mais dificuldade em proteger o nosso próprio povo dos danos tecnológicos do que os nossos homólogos europeus. Uma evolução na opinião pública dos EUA será essencial, tanto para informar as nossas próprias escolhas individuais, como para ser um precursor necessário, embora insuficiente, de qualquer regulamentação governamental significativa dos EUA.

Há muito trabalho a fazer se quisermos maximizar com sucesso os benefícios e minimizar os danos associados à IA – serão necessárias novas teorias jurídicas, novos programas acadêmicos e novos padrões de transparência, explicabilidade e muito mais. Mas o mais fundamental de tudo é que precisamos de uma visão e de uma narrativa claras para ajudar os estadunidenses a compreenderem e determinar o tipo de economia e sociedade para a qual queremos fazer a transição. Tivemos a engenhosidade de criar inteligência artificial generativa. Também temos a capacidade de governá-lo de forma a apoiar o interesse público, os direitos humanos e a democracia.

 

A AUTORA

Kelly Born é diretora da Iniciativa para Democracia, Direitos e Governança da Fundação Packard. Antes de ingressar na fundação, Kelly atuou como diretora da Iniciativa Cibernética da Fundação William e Flora Hewlett e, antes disso, como diretora fundadora do Centro de Política Cibernética da Universidade de Stanford, onde se concentrou nos impactos globais da tecnologia na democracia.



Newsletter

Newsletter

Pular para o conteúdo