Imprimir artigo

Uma nova visão para o mundo high-tech

Com a tecnologia digital cada vez mais ligada ao cotidiano, garantir que a inovação high-tech esteja a serviço da sociedade é fundamental; mas, antes, é preciso definir o ideal de sociedade que queremos

Por Mike Kubzansky

(Ilustração de Brian Stauffer)

Durante décadas, os Estados Unidos deixaram a tecnologia digital avançar sem qualquer vínculo com uma visão de sociedade. Apesar de sua história de proteção dos direitos das pessoas, o país se mantém estranhamente passivo quanto a essa questão, aceitando como inevitável o impacto da tecnologia digital na economia, na democracia, no sistema de Justiça criminal e no próprio tecido social.

Leia também:

Resolvendo o “paradoxo local” das redes sociais

A realidade virtual é capaz de reduzir a criminalidade?

Essa indiferença pode estar se esgotando. No começo do ano, o sistema municipal de ensino de Seattle entrou com uma ação contra as redes Facebook, Instagram, Snapchat, TikTok e YouTube, alegando que as plataformas estariam contribuindo para a crescente crise de saúde mental entre os jovens. De lá para cá, outros distritos escolares seguiram o exemplo. Em março de 2023, um condado na Califórnia – San Mateo, que inclui 23 distritos em pleno Vale do Silício – e outras duas autoridades escolares também foram à Justiça contra as redes sociais, com o argumento de que estariam empregando inteligência artificial e machine learning para criar plataformas que viciam e prejudicam os jovens – tese corroborada por numerosos estudos.1

Seguradoras, bancos, hospitais, donos de imóveis e empresas em geral estão, cada vez mais, usando algoritmos preditivos e inteligência artificial generativa (a IA que usa montanhas de dados para gerar conteúdos e ideias) na hora de conceder empréstimos, avaliar potenciais locatários e até definir tratamentos médicos. É algo preocupante do ponto de vista da equidade e da justiça. Um estudo de 2021 da Consumer Reports constatou que a automação de decisões faz seguradoras de veículos cobrarem mais de indivíduos com escolaridade e renda menores.2

No ano passado, três parlamentares americanos do Partido Democrata – os senadores Ron Wyden e Cory Booker e a deputada Yvette Clarke – apresentaram um projeto de lei (o Algorithmic Accountability Act) que, se aprovado, exigiria que toda empresa que utiliza e vende sistemas automatizados avaliasse seu impacto e fosse mais transparente sobre quando e como tais sistemas são usados; o projeto empacou na comissão responsável. Um projeto similar, de 2019, tampouco avançou. Neste ano, o líder da maioria no Senado, o democrata Chuck Schumer, vem encabeçando uma iniciativa na Casa para criar um arcabouço legislativo que forneça “um novo regime regulatório para a IA”.

Enquanto aguardam diretrizes no plano federal, diversos estados americanos consideram medidas para regular o uso de algoritmos. No Colorado e em Connecticut, por exemplo, autoridades do setor de seguros tentam limitar o uso de IA por suas afiliadas na hora de decidir quem segurar e a que custo. Normas em estudo exigiriam testes mais rigorosos e um monitoramento contínuo de tecnologias de IA, além de maior transparência na comunicação com clientes.

Com a inteligência artificial no centro do debate político, social e econômico, a preocupação com possíveis efeitos negativos é natural – sobretudo em um momento em que a sociedade começa a ser alertada acerca dos riscos à própria existência humana e do real perigo de discriminação racial e desinformação. Tanto na esfera pública quanto na privada, lideranças lamentam não ter instituído uma boa governança quando as redes sociais surgiram. Com o rápido avanço da IA generativa, essa necessidade é ainda mais urgente.

Os próprios criadores dessas tecnologias estão clamando por regulamentação. Em maio, mais de 350 executivos, acadêmicos e engenheiros envolvidos no trabalho com IA firmaram uma declaração que dizia: “Mitigar o risco de extinção pela inteligência artificial deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”. 3

Toda essa atenção para o perigo de permitir que tecnologias (e seus criadores) ditem as regras gera um salutar debate sobre como garantir que a sociedade esteja no comando da tecnologia, e não o contrário. A Omidyar Network defende há muito o poder e o potencial da tecnologia digital e já investiu mais de US$ 750 milhões em startups de tecnologia dedicadas a melhorar a vida das pessoas. Lições tiradas desse trabalho mostram que, a fim de beneficiar a maioria, e não só uns poucos, tecnologias devem equilibrar inovação com responsabilidade social, independentemente de serem introduzidas por indivíduos, por empresas ou pelo poder público.

Canalizar o poder da tecnologia para o bem comum requer certo consenso sobre o que seria uma sociedade ideal. Apesar da crescente polarização do país, a maioria dos americanos defende em tese a democracia representativa e os três direitos fundamentais – à vida, à liberdade e à busca da felicidade – entronizados na Declaração de Independência do país. Liberdade e garantias individuais, entre as quais as liberdades de expressão, de religião e de reunião, além do direito à privacidade, são fundamentais para o ideal de país da maioria dos americanos. O mesmo pode ser dito de igualdade para todos, de um sistema legal justo e de uma economia forte. Há, também, amplo consenso em torno da necessidade de investir na primeira infância, de garantir acesso a necessidades básicas como saúde, alimentação e moradia e de cuidar do planeta.

Criar um sistema de tecnologia digital pautado por esses valores seria uma oportunidade para que a sociedade promovesse seus interesses e garantisse um sistema com melhores resultados no futuro.

Coletiva, essa ação requer um amplo debate sobre a natureza da sociedade almejada pelos americanos e o papel da tecnologia digital nessa visão. Para iniciar a discussão, sugiro que filantropos, tecnólogos, empreendedores, legisladores, acadêmicos, ativistas, líderes de movimentos diversos, estudantes, consumidores, investidores e todos aqueles com um interesse no futuro da nação comecem, desde já, a fazer cinco perguntas.

1. Para criar um sistema de tecnologia digital que contribua para a sociedade, que premissas, posturas e ideias precisam mudar?

Ideias importam. Elas surgem de valores e sua influência se estende no tempo. Elas geram debates sobre o que é possível e ajudam a determinar que políticas irão vingar ou não.

As ideias que hoje norteiam a economia americana – e, portanto, boa parte do sistema atual de tecnologia digital – surgiram no fim da década de 1970 entre um grupo relativamente reduzido de acadêmicos, políticos, dirigentes empresariais, indivíduos de patrimônio elevado e outros grupos de elite que as disseminaram por toda a sociedade. Para eles, a liberdade do indivíduo e o “livre” mercado estavam acima de tudo. Eficiência econômica, Estado mínimo, carga tributária baixa, lucro para investidores e responsabilidade individual viraram a norma, erradicando da economia qualquer outro propósito. Como a tecnologia digital ganhou força durante o auge dessa filosofia de livre mercado, autoridades reguladoras encararam sua governança (ou a ausência dela) com um certo laissez-faire – para o infortúnio de consumidores, comunidades e da sociedade em geral.

Um exemplo é o da primazia do acionista: a ideia (do inglês shareholder primacy) de que, em uma empresa, o interesse de investidores deve estar acima de todos os demais. Essa tese prioriza o lucro de empresas (inclusive de tecnologia) e de investidores em detrimento do bem-estar de trabalhadores, da democracia, do tecido social da nação e até do planeta. Para piorar, o paradigma econômico atual incentiva a privatização do lucro e a socialização do prejuízo – e minimiza a cobrança de responsabilidades. Firmas de private equity e grandes investidores investem em empresas para ter o máximo retorno possível, ainda que isso signifique cortar empregos, salários ou benefícios. Quando um negócio dá certo, essas firmas e seus investidores colhem os lucros. Já quando a coisa vai mal, o custo é socializado, deixando empresas até então sadias ou startups promissoras em bancarrota ou em situação precária.

 

Como muitos dos sistemas atuais, a tecnologia digital foi moldada por um universo limitado de vozes – basicamente as dos homens brancos heterossexuais

 

Em vez de aceitar a realidade atual como inevitável, a sociedade pode lutar por um novo paradigma econômico, que inclua o setor de tecnologia digital e priorize o bem-estar do indivíduo, da comunidade e da sociedade. Para que o novo sistema de tecnologia digital contribua para a sociedade, é preciso começar por substituir ideias ultrapassadas e, em muitos casos desacreditadas, por novas, que reflitam a realidade do mundo atual. Um dossiê de 2020 da Omidyar Network – “Our Call to Reimagine Capitalism in America” [um chamado a reimaginar o capitalismo nos Estados Unidos] – descreve as cinco principais áreas da economia a serem abordadas para a criação de um novo ideário econômico fundado no bem-estar do indivíduo, da comunidade e da sociedade e do qual todos possam efetivamente participar.

Reformular o sistema de tecnologia digital para promover uma sociedade mais equânime, inclusiva e resiliente significa que empresas de tecnologia terão de fazer mais do que simplesmente gerar e maximizar lucros. Um sistema que promova o ideal americano de liberdades e garantias individuais deve priorizar o tratamento e a proteção de dados pessoais. Hoje, o consumidor não tem um meio simples de saber como seus dados estão sendo vendidos ou compartilhados. Modelos de negócios tratam dados como mercadoria, entregando o ouro a quem pagar mais. Desequilibrada, essa proposta de valor ignora os produtores de dados – nós todos – e sublinha o poder que empresas detêm sobre a informação do cidadão. Consentimento, cookies e políticas de privacidade não resolvem o problema. Quem nega o consentimento (faz o opt-out) é injustamente punido, pois é excluído de participar plenamente do mundo digital do qual a vida de cada um de nós depende. O sistema engana, coage e subtrai do público.

A adoção de uma nova mentalidade econômica e de modelos de negócios sem caráter extrativista traz a oportunidade de reimaginar a informação e de determinar maneiras de calcular e compartilhar o valor econômico desses dados para promover uma abordagem mais justa. Em vez de enxergar a informação como mercadoria, a sociedade deve encará-la mais como um bem público cujo uso promove o interesse comum. A organização sem fins lucrativos Worker Info Exchange, que ajuda o trabalhador a acessar e a usar em benefício próprio toda informação coletada sobre ele no trabalho, já vem colocando essa visão em prática. Motoristas de aplicativos como Uber e Lyft, entregadores e outros trabalhadores da chamada gig economy, por exemplo, poderiam usar esse recurso digital para agrupar seus dados e fazer pressão coletiva por remuneração justa e melhores condições de trabalho.

Para reimaginar o sistema de tecnologia digital e garantir que preste um serviço melhor à sociedade, é preciso investigar mais os prós, os contras e as limitações de dados. É útil ver o que parte do mundo já está fazendo. A União Europeia adotou um admirável papel de ponta com duas leis para a criação de um espaço digital mais seguro. Chamadas Digital Services Act (DSA) e Digital Markets Act (DMA), elas resguardam direitos fundamentais de usuários e nivelam as regras do jogo para empresas. Um dos aspectos centrais da DSA são os novos critérios de transparência e mais poder para o cidadão, com mecanismos para facilitar a denúncia de conteúdo ilegal. Já a DMA inclui normas voltadas a promover a concorrência e garantir que empresas tenham acesso equânime a mercados digitais.

 

2. Como promover a inclusão para criar um sistema de tecnologia digital mais forte?

 

“Nós nos comprometemos mutuamente com nossas vidas, nossas fortunas e nossa honra sagrada.” Com esse desfecho, a Declaração de Independência dos Estados Unidos afirma que a nação depende da contribuição de todos os seus cidadãos. Uma economia mais democrática deve dar a todos – incluindo trabalhadores, consumidores, pequenas empresas e famílias – igual capacidade de se fazer ouvir e de progredir.

Como muitos dos sistemas atuais, a tecnologia digital foi moldada por um universo limitado de vozes – basicamente as dos homens brancos heterossexuais. Nos Estados Unidos, 80% dos executivos de tecnologia são homens e 82%, brancos; apenas 3% são latinos e só 2% são negros. Mulheres, pessoas de cor, LGBTQIA+, jovens e pessoas com deficiências e necessidades especiais são reiteradamente sub-representados, seja como criadores ou como usuários.

A baixa representatividade e a subamostragem desses grupos nos dados que alimentam a IA fazem com que a tecnologia digital seja otimizada para uma parcela estreita do mundo, podendo, portanto, agravar preconceitos. Um exemplo: programas de reconhecimento facial usados por órgãos de segurança pública para acelerar a identificação de suspeitos acertam mais no caso de rostos masculinos do que de femininos e no de gente de tez branca do que de indivíduos de pele mais escura. Para que a tecnologia digital promova uma sociedade justa e imparcial, aqueles que a concebem, financiam, criam, administram e desenvolvem devem ser um reflexo da sociedade que o sistema visa apoiar.

Já há investidores, como a Kapor Capital, apoiando iniciativas para criar uma força de trabalho diversificada nesse setor e, com isso, contemplar não só interesses comerciais, mas sociais também. Uma coalizão de fundações filantrópicas, centros de estudo e universidades também vêm investindo pesado em tecnologias de interesse público. Parte do trabalho desse grupo é promover a contratação de mais negros no setor de tecnologia e incluir na campanha instituições de ensino superior tradicionalmente voltadas à população negra, como a universidade Howard. Já organizações da sociedade civil, como a Black & Brown Founders, vêm se unindo a investidores para diversificar o universo de fundadores de empresas de tecnologia.

O setor de tecnologia digital pode e deve adotar práticas de contratação afirmativas, obrigações contratuais e novos padrões, bem como atender a apelos do público por mudanças. Um universo mais amplo e diverso de atores em todos os níveis do sistema – entidades normativas, reguladores, governantes e organismos internacionais – irá garantir que decisões sobre o futuro da tecnologia reflitam interesses, necessidades e contribuições de todos os interessados.

 

3. Como usar ética e transparência para aumentar a capacidade da tecnologia digital de servir à sociedade?

 

Para servir à sociedade, a tecnologia digital deve ser pautada por códigos éticos claros e normas erguidas sobre valores comuns a todos. “Temos buscado, reiteradamente, adaptar práticas de mercado e regulamentos para que novas tecnologias (criptomoedas, fintechs) se encaixem em velhas normas e regras”, disse Gene Kimmelman, que foi assessor especial do Departamento de Justiça americano e presidente do grupo de defesa da internet aberta Public Knowledge. “Para começo de conversa, o certo seria tentar descobrir se as implicações éticas da tecnologia são tão profundas a ponto de que sua adoção devesse ser questionada. Não temos um ‘nuclear freeze’ [uma moratória] ou um mecanismo automático para reverter esse processo”, completou.

A maioria das grandes descobertas dos séculos 19 e 20, em áreas como biomedicina, genética, saúde, agricultura e transgênicos, é regulada por um arcabouço ético. Há décadas estudiosos discutem a ética da energia nuclear. Seu potencial de reverter o impacto de mudanças climáticas deflagrou um debate totalmente novo acerca de se haveria um nível “moralmente aceitável” de produção de energia nuclear. No plano da moral, a tecnologia digital não deveria ser exceção.

Vieses na inteligência artificial e a capacidade da IA generativa de evoluir de modo imprevisível apontam para a necessidade de sistemas digitais serem norteados por um arcabouço ético. Hoje, vastas esferas da sociedade são alimentadas, sustentadas e governadas por algoritmos, conferindo à tecnologia um impacto econômico e social descomunal. Para decidir se concede a alguém liberdade mediante fiança, por exemplo, um juiz pode usar o risco de reincidência calculado por algoritmos alimentados por décadas de históricos criminais. Instituições de crédito imobiliário podem determinar juros com base no risco de calote previsto por algoritmos. Serviços sociais públicos podem contar com a ajuda de algoritmos para decidir a quem conceder auxílio financeiro.4 Um sistema de tecnologia digital que promova uma sociedade justa e equânime deve purgar algoritmos de toda forma de preconceito (velhos, novos, técnicos).

Arcabouços éticos são fundamentais também para enfrentar desafios ligados a outras tecnologias digitais. O software de código aberto (“open source”) na base da internet, por exemplo, move grande parte de nossa infraestrutura crítica – redes de energia elétrica, hospitais, sistemas de telecomunicações e transporte, telefonia, automóveis e aeronaves que tornam possível o comércio e a indústria. Esse software tem o poder de conectar comunidades, fomentar inovação e colaboração e inserir transparência e responsabilização no sistema. Uma vez que o código aberto impede que se controle o que os outros fazem com o código original, qualquer um pode, com mínimas restrições, utilizar, recombinar ou aplicar comercialmente esse código em novas aplicações tecnológicas. Só que essa mesma abertura, embora promova a inovação, também traz riscos e vulnerabilidades que devem ser abordados. Um ator mal-intencionado pode usar o código para fins malévolos ou alterá-lo para minar sua segurança e estabilidade.

Comunidades destituídas de uma figura central de autoridade, como organizações autônomas descentralizadas (DAOs, na sigla em inglês), foram projetadas para respeitar os interesses de todos os stakeholders do grupo sem que haja controle por uma única parte. Elas são o alicerce de boa parte das inovações em criptomoedas e Web 3.0 ocorrendo hoje. Sua popularidade crescente torna ainda mais importante que haja diretrizes éticas para garantir a confiança do público e uma boa gestão da reputação. Abordar considerações éticas envolvendo tecnologias de voz e biometria (consentimento, tratamento de dados e possíveis vieses, por exemplo) é crucial para evitar uso indevido ou discriminação. Diretrizes éticas também ajudariam a garantir que a criptografia – indispensável para a proteção de dados – não impeça o acesso legítimo por órgãos de segurança pública.

Certas empresas de tecnologia já têm especialistas em ética e profissionais que criam pensando no ser humano. É uma tendência animadora e louvável. No entanto, essas equipes devem ser incentivadas a fazer avaliações honestas e precisam ter autonomia para lidar com possíveis desvios. A maioria das companhias ainda opera com uma ótica restrita ao produto, e não com uma perspectiva mais ampla sobre o efeito dessa ou daquela tecnologia no mundo real. A fim de incentivar indivíduos responsáveis a fazer perguntas difíceis e para considerar de antemão as implicações de seus produtos, fazendo eventuais correções, a Omidyar Network criou, em parceria com vários colaboradores, um guia digital. O Ethical Explorer Pack traz ferramentas e recursos para a revisão de práticas internas, bem como lições tiradas da experiência de outras empresas.

O poder público pode dar sua contribuição ao exigir de potenciais provedores a adesão a normas e condutas éticas comprováveis que levem a melhores resultados. Nos EUA, organizações da sociedade civil como Trust & Safety Professional Association, Integrity Institute, Whistleblower Aid, Coworker.org e Algorithmic Justice League, ao lado de associações de classe como o Institute of Electrical and Electronics Engineers, também têm um importante papel a desempenhar na definição de novos padrões. Todo esse arcabouço deveria levar em consideração o impacto indireto de tecnologias digitais em indivíduos e comunidades (incluindo a substituição de trabalhadores por automação e IA, o impacto ambiental negativo de data centers e criptomoedas e a erosão da privacidade e da confiança devido à disseminação e venda de dados pessoais).

O consumidor também deve fazer sua parte na definição e exigência de um código de ética mais forte. À medida que nativos digitais assumem a dianteira, é preciso começar logo cedo, ainda na sala de aula, a incutir na criança a necessidade de considerações éticas e escolhas normativas que levem a tecnologia digital a promover uma sociedade ideal. Essa nova compreensão pode, com o tempo, levar a uma demanda generalizada por mudanças radicais na governança da tecnologia digital.

 

No modelo atual de investimento, o investidor aceita bancar operações deficitárias para minar concorrentes que estão tendo receita e lucro e usando isso para crescer. No bancado pelo capital de risco, a empresa está mais voltada a agradar o investidor do que a satisfazer as pessoas, mercados e a sociedade como um todo

 

Para que normas éticas tenham adoção mais ampla, é preciso mais transparência. Outros setores, como o da moda e o da alimentação, sugerem um modelo para a resposta a esse clamor, disponibilizando informações sobre suas cadeias de suprimentos. Ao exigir saber como seus dados pessoais são coletados, utilizados, armazenados e compartilhados, o consumidor pode submeter empresas de tecnologia digital a um escrutínio similar. A Consumer Reports criou o aplicativo Permission Slip, que traz informações sobre o tratamento dos dados e permite ao usuário solicitar que uma companhia exclua ou deixe de vender suas informações pessoais.

Hoje, o debate sobre a IA generativa passou a ver a transparência e auditorias como possíveis antídotos contra eventuais prejuízos à sociedade. Criadores de Large Language Models (LLMs) resistem, no entanto, e declaram ser muito difícil demonstrar como esses modelos tomam decisões. É difícil acreditar nesse argumento. Afinal, já há tecnologias para que empresas privadas compartilhem dados com o poder público. É o que a SEC (Securities and Exchanges Comission, órgão que regula o mercado de ações nos EUA) faz com dados financeiros por meio da plataforma Edgar, que pode ser acessada por qualquer pessoa para pesquisar e baixar (gratuitamente) documentos de registro de empresas e demonstrativos financeiros, entre outros. Mas, para que isso ocorra em grande escala, é preciso que a sociedade exija.

Muitas questões técnicas exigem transparência: algoritmos, dados e privacidade; práticas empresariais e trabalhistas, incluindo direitos humanos; manufatura; procurement; considerações ligadas a contratação e diversidade, equidade e inclusão; e danos e infrações. A ampliação da transparência também requer a adoção de código aberto, maior interoperabilidade e novos protocolos que promoverão, naturalmente, a troca de conhecimento entre distintos atores (incluindo a potencial criação de sistemas que permitam às pessoas ver onde seus dados estão sendo vendidos ou compartilhados). Disponibilizar mais dados (em caráter anonimizado) para profissionais qualificados no mundo acadêmico, na imprensa, na sociedade civil e em órgãos governamentais irá melhorar a compreensão de tendências atuais, embasar ações futuras, proteger o interesse público e facilitar a cobrança de providências de partes responsáveis.

Em 2022, o centro de estudos progressista Demos, apoiado pela Omidyar Network, publicou o estudo “The Open Road”, pesquisa seminal sobre sistemas de código aberto sustentáveis. “Mais abertura significa mais inovação”, concluiu o material. “Mais transparência significa mais vigilância, o que significa menos brechas de segurança ignoradas. A abertura contribui para o desenvolvimento de ‘boas tecnologias’ cuja concepção incorpore a proteção à privacidade e à segurança, entre outras”.5 A abertura lança luz sobre falhas no código e no desenho, levando a soluções e aplicativos mais robustos. Em suma, a abertura promove a inovação e poderia contribuir para um sistema de tecnologia digital que preveja freios e contrapesos para o consumidor e favoreça, assim, a equidade e a justiça.

 

4. Qual o papel de políticas públicas na criação de um novo sistema de tecnologia digital?

 

Autoridades eleitas para defender o Estado democrático de direito e o bem-estar de seus cidadãos podem ajudar a pautar a transição para um sistema de tecnologia digital mais responsável. Hoje, no entanto, boa parte da classe política está financeiramente atrelada a empresas de tecnologia ou sob excessiva influência do setor. As cinco maiores delas – Apple, Amazon, Microsoft, Alphabet e Meta – gastam cerca de US$ 69 milhões por ano em atividades de lobby só nos Estados Unidos.

Na ausência de uma política eficaz de concorrência, o valor de mercado combinado dessas cinco empresas chegou, em agosto de 2022, a quase US$ 8,5 trilhões. É mais do que o PIB da Alemanha ou do Japão. Isso gera uma concentração de poder desmedida, inibindo a inovação e tolhendo a capacidade do Estado de fazer essas empresas agirem com base nas necessidades da sociedade ou respaldarem os valores da nação.6

A solução não é opor inovação a regulamentação. Um sistema de tecnologia digital que promova os ideais de uma sociedade democrática precisa de ambas. A regulação não deve, necessariamente, ser inimiga do crescimento ou da inovação. A atividade bancária, por exemplo, é uma das mais reguladas do mundo, mas nada disso impediu que fintechs ajam dentro da lei e sejam um dos grandes destinos do capital de risco. A biomedicina é outro setor fortemente regulado; não obstante, em menos de nove meses toda uma nova classe de vacinas de mRNA contra a covid foi criada e lançada. Com incentivos melhores e regulamentação, o setor de tecnologia digital vai poder criar produtos, modelos de negócios e mecanismos de concorrência inovadores, que promovam o bem comum.

Nos Estados Unidos, onde agências estatais, Congresso e Casa Branca trabalham para determinar qual seria a melhor abordagem regulatória, falta ainda definir a estrutura de um possível ente regulador e a que alçada pertenceria. A complexidade e a superposição das questões em pauta podem levar agências como a Comissão Federal do Comércio (FTC, na sigla em inglês) a acolher uma missão mais estrita e uma autoridade mais clara e, quem sabe, até originar a criação de instituições, com novos poderes e funções. Em uma cúpula da ONU em julho, denominada ”Inteligência Artificial para o Bem”, Gary Marcus, Karen Bakker e Anka Reuel – todos estudiosos do impacto da IA na sociedade – lançaram uma nova iniciativa de governança da IA, o Catai (acrônimo em inglês de Centro para o Avanço da Inteligência Artificial Confiável), com apoio financeiro da Omidyar Network. A meta é contribuir para a criação de modelos globais de governança da IA mais confiáveis por meio de investimentos em pesquisa básica e aplicada.

Ao planejar intervenções regulatórias, o poder público precisa saber avaliar a importância sistêmica, a escala, a maturidade e possíveis efeitos negativos da tecnologia na vida real. E, se necessário, adaptar ou repensar marcos regulatórios existentes ou adotar teorias e estruturas para fazer frente a modelos de negócios cujo custo para o consumidor não é explícito. Facebook e Google, por exemplo, dão seu produto de “graça”, mas precisam ser de alguma forma fiscalizados para evitar prejuízos ao consumidor e concentração de mercado.

Nos Estados Unidos, o poder público tem feito alguns avanços importantes. Nos últimos meses, o governo intensificou a campanha para impor freios ao setor digital com uma série de medidas voltadas a criar uma sociedade mais saudável e vibrante. Projetos de lei em tramitação no Congresso pretendem tornar a tecnologia digital mais segura para o público infantil, com ações para reduzir riscos de cyberbullying e publicidade dirigida, por exemplo. Em maio, o governo Biden tomou o que classificou de “medidas que promoverão ainda mais a inovação responsável em inteligência artificial no país e garantirão os direitos e a segurança da população”. Entre as medidas está a liberação de US$ 140 milhões para criar sete institutos nacionais de pesquisa em IA, destinados a incentivar a colaboração entre instituições de ensino superior, órgãos federais e indústria para garantir que os avanços no tema sejam “éticos, confiáveis, responsáveis e voltados ao bem público”.

Com certo atraso, estados também começam a agir. Em uma iniciativa para proteger a população infantil, a Califórnia aprovou uma lei, o Age-Appropriate Design Code Act, para exigir que plataformas digitais considerem o que é melhor para o público infantil e adotem medidas de privacidade e segurança para preservar não só a saúde mental e física da criança, mas também seu bem-estar. Outros estados vão pelo mesmo caminho. Com mais de 600 milhões de crianças circulando pela internet, o setor precisa considerar a segurança e a privacidade desse público desde a concepção de seus produtos, sendo chamado a responder por isso em todas as esferas do poder público.

Nos Estados Unidos, quase 20 estados já discutem amplas leis de proteção à privacidade. A maioria desses projetos daria ao consumidor o poder de acessar, excluir ou corrigir seus dados pessoais na internet, optar por não receber propostas comerciais e publicidade dirigida ou exigir consentimento prévio para o tratamento de informações sensíveis.

Com a evolução contínua da tecnologia, com mudanças dia após dia, normas e leis precisam se antecipar ao que está por vir, em vez de só correr atrás das mudanças.

 

5. Qual o modelo financeiro ideal para incentivar um sistema digital saudável?

 

Toda grande revolução tecnológica costuma vir acompanhada de uma revolução financeira. Não é diferente com a revolução digital: já há todo um novo aparato de investidores, sistemas e incentivos voltados a fomentar a tecnologia digital, o que fez surgir uma cultura e um motor de inovação e investimentos que a um só tempo ancora e faz avançar o setor. Em 2022, fundos de capital de risco investiram US$ 1,37 bilhão em 78 transações envolvendo IA generativa – cifra quase idêntica ao total aportado a essa mesma modalidade de IA nos cinco anos anteriores.7

Mas há problemas. Para satisfazer investidores em busca de retorno imediato, tanto o modelo de financiamento quanto a cultura hoje reinantes priorizam o crescimento a qualquer custo. “Chegamos a um ponto no ecossistema de startups em que, para grandes fundos de VC [capital de risco, na sigla em inglês], uma startup que dê um resultado de US$ 1 bilhão é praticamente insignificante”, diz Evan Armstrong, ex-investidor da área. O próprio Armstrong completa: “Para multiplicar três ou cinco vezes o investimento de um fundo, uma firma de VC busca startups que sejam avaliadas em mais de US$ 50 bilhões na estreia em Bolsa […]. Se pegarmos todo o universo de empresas de tecnologia de capital aberto, há apenas 48 com um valor de mais de US$ 50 bilhões” 8. Isso significa que o empreendedor precisa assumir riscos cada vez maiores para garantir que seu produto atinja uma posição de liderança no mercado.

A tese da “primazia do acionista” não incentiva de forma alguma os investidores a considerar possíveis impactos na sociedade. Para piorar, o modelo atual de investimento prioriza a aquisição de mais e mais usuários para fazer a empresa crescer e dar retorno. Ou seja, o investidor aceita bancar operações deficitárias para minar concorrentes que estão tendo receita e lucro e usando isso para crescer. No modelo bancado pelo capital de risco, a empresa está mais voltada a agradar o investidor do que a satisfazer usuários, comunidades, trabalhadores, mercados e a sociedade como um todo.9

Precisamos urgentemente de modelos de financiamento privado de horizonte mais largo que aliviem a pressão pelo lucro imediato e levem em conta outros fatores além do retorno financeiro. Grandes investidores institucionais – incluindo fundos de pensão, fundos patrimoniais de universidades e fundos soberanos, que muitas vezes já representam interesses públicos maiores – podem e devem usar sua influência para incentivar o setor de capital de risco a agir de forma mais responsável.

Entre fontes de capital, já aparecem inovações envolvendo modelos de geração de receita, estruturas societárias e alocação de retornos e dividendos – embora ainda sejam uma notável exceção, não a norma. Quem propôs uma nova abordagem foi a Indie.vc, do investidor Bryce Roberts, bancada, inicialmente, por gente como Pierre Omidyar, que criou o eBay e é um dos fundadores da Omidyar Network. Em vez de liberar grandes somas para ajudar um empreendedor a tirar uma ideia do papel, a Indie.vc optou por fazer investimentos menores em startups promissoras, mas já de pé – incluindo várias de regiões ou grupos sociais comumente ignorados. E sem adquirir, de saída, uma participação no negócio. A ideia era permitir que uma empresa já existente se concentrasse em crescer, não em dar lucro para seus investidores. No final, a Indie.vc não conseguiu atrair investidores suficientes para crescer.

A adoção de modelos de financiamento menos imediatistas só tem a contribuir para inovadores que incorporem os valores necessários para aprimorar o sistema de tecnologia digital – entre eles a proteção de direitos, a defesa da justiça e o incentivo a tecnologias voltadas ao bem social.

 

Um mundo melhor é possível

 

Na história do progresso tecnológico, a tecnologia digital – e, agora, a IA generativa – talvez seja singular. Seu crescimento foi rápido, a tecnologia permeia toda a sociedade e uma série de atividades sociais básicas hoje depende dela. Sua capacidade de autoaprendizado, suas engrenagens e complexidade escapam à compreensão da maioria. Tudo isso, somado ao temor de riscos existenciais, contribui para uma sensação de inevitabilidade, de que nada pode ser feito para alterar seu curso.

É preciso combater essa narrativa. É possível, sim, conduzir, influenciar e governar a tecnologia digital em prol de uma sociedade democrática. Para isso, devemos deixar de medir o sucesso simplesmente pela velocidade e escala dos avanços na tecnologia digital e priorizar sua contribuição para o desenvolvimento de uma visão positiva para a sociedade.

 O AUTOR

Mike Kubzansky é CEO da Omidyar Network.

 

Notas

1. Elena Bozzola et al., “The Use of Social Media in Children and Adolescents: Scoping Review on the Potential Risks” [O uso de mídias sociais por crianças e adolescentes: uma revisão de escopo dos riscos potenciais], International Journal of Environmental Research and Public Health, vol. 19, no. 16, 2022.

2. Kaveh Waddell, “Why Your Education and Job Could Mean You’re Paying Too Much for Car Insurance” [Por que seu grau de escolaridade e trabalho o fazem pagar um seguro de carro mais caro], Consumer Reports, January 28, 2021.

3. Center for AI Safety, “Statement on AI Risk” [Declaração sobre riscos de IA].

4. Frederic Gerdon et al., “Social Impacts of Algorithmic Decision-Making: A Research Agenda for the Social Sciences” [Impactos sociais da tomada de decisão por algoritmos: uma agenda de pesquisa para as ciências sociais], Big Data & Society, January-June, 2022.

5. Alex Krasodomski-Jones et al., “The Open Road: How to Build a Sustainable Open Infrastructure System” [A via aberta: como construir um sistema de código aberto sustentável], Demos, January 2022.

6. Nandita Bose, “Scathing Congressional Report Suggests Big Trouble for Big Tech If Biden Wins” [Relatório parlamentar severo sugere graves problemas para as big techs, se Biden vencer], Reuters, October 7, 2020.

7. Marina Temkin, “VCs Try to Parse through the ‘Noise’ of Generative AI” [VC tenta analisar através do ‘ruído’ da IA generativa], Pitchbook, December 23, 2022.

8. Evan Armstrong, “Venture Capital Is Ripe for Disruption” [O capital de risco está pronto para a disrupção], Every, October 27, 2022.

9. Anil Dash, “12 Things Everyone Should Understand About Tech” [12 coisas que todos deveríamos entender sobre tecnologia], Medium, March 14, 2018.



Newsletter

Newsletter

Pular para o conteúdo