Imprimir artigo

8 passos para as organizações adotarem a IA de maneira responsável

O envolvimento com a IA é necessário, mas requer uma preparação cuidadosa

Por Beth Kanter, Allison Fine e Philip Deng

(Ilustração de iStock/ilyast)

A velocidade com que as pessoas aderiram às ferramentas generativas de inteligência artificial (IA) tem sido surpreendente. O ChatGPT, que cria novos textos com base nas solicitações dos usuários, ultrapassou 100 milhões de usuários ativos mensais em apenas dois meses, segundo dados compilados pelo UBS. Para termos de comparação, o TikTok levou nove meses, e o Instagram, dois anos e meio, para atingir o mesmo patamar.

Leia também:

Como capacitar empresas sem fins lucrativos

Do fazer o bem ao ser bom

A IA generativa está agora na segunda fase do  Gartner Hype Cycle (ciclo Gartner do hype), uma representação gráfica da maturidade da inovação utilizada no setor empresarial. Ultrapassou a fase um, o “gatilho da inovação”, em que a tecnologia aparece em todo o lado ao mesmo tempo, e está agora no “pico de expectativas inflacionadas”. Já vimos esse ciclo muitas vezes com tecnologias como computadores, telefones celulares e as mídias sociais. No entanto, há uma diferença entre a IA e as anteriores: ela toma decisões que só as pessoas poderiam tomar até agora – entre elas, vereditos sobre quem contratar e quais histórias contar –, o que torna este momento emocionante e assustador.

No setor social, muitas organizações sem fins lucrativos acreditam que a IA vai resolver todos os problemas de trabalho, de forma instantânea e indolor (Não vai.). Outros têm medo de que isso possa causar estragos e substituir funcionários. Algumas organizações estão começando a agir cedo; outras vão esperar. Mas uma coisa é certa: o envolvimento das organizações sem fins lucrativos com a IA é necessário e requer uma preparação cuidadosa.

 

Como as organizações sem fins lucrativos estão usando IA hoje

Provavelmente levará anos para que a IA seja totalmente incorporada aos locais de trabalho, como indica um estudo recente da McKinsey, mas o processo já está em andamento. Atualmente, captadores de recursos a têm utilizado para redigir notas de agradecimento aos doadores, boletins informativos, propostas de subsídios e comunicados de imprensa. Uma diretora de desenvolvimento nos disse que o uso do ChatGPT para tarefas desse tipo representa uma economia de  muitas horas de trabalho por semana. Uma redatora de uma agência de serviços humanos contou que usou o ChatGPT para tornar três propostas de bolsas diferentes mais concisas e as três foram aprovadas!

Produtos de software de uso diário, como Google Workspace e Microsoft Office, também começaram a incorporar funções de IA generativa a fim de ajudar os usuários a criar apresentações, responder a e-mails e agendar reuniões. As organizações sem fins lucrativos estão apenas começando a empregar essas ferramentas, e esforços como o Generative AI Skills Challenge da Microsoft e da Data.org, um subsídio para treinamento e aprimoramento de habilidades em IA generativa para impulsionar o impacto social, sem dúvida acelerarão a adoção.

Outros tipos de IA também estão se consolidando na vida organizacional. Chatbots (interfaces de conversação que usam grandes modelos de linguagem de aprendizagem), como o ChatGPT, podem responder a perguntas de usuários ou fornecer, sob demanda, informações internas a funcionários de organizações sem fins lucrativos; ferramentas de triagem baseadas em IA já avaliam potenciais funcionários e destinatários de serviços; além disso, existem inúmeras ferramentas de arrecadação de fundos baseadas em IA para ajudar na prospecção de doadores e no gerenciamento da comunicação com eles.

 

Usando a IA com cuidado

 

Quando utilizada com cuidado e habilmente, a IA tem o potencial de poupar às pessoas milhares de horas de trabalho mecânico por ano, liberando-as para fazerem o tipo de coisas que só elas podem fazer: resolver problemas, aprofundar relações e construir comunidades.

Além disso, abordagens como o “co-boting”, que envolve a utilização de ferramentas de IA para melhorar, em vez de substituir, empregos humanos, podem se valer do melhor dos bots e dos humanos para poupar tempo.

No entanto, é preocupante que organizações ansiosas por economizar tempo mergulhem na na utilização dessa tecnologia incrivelmente poderosa sem considerar suas consequências humanas ou éticas.

Em 2022, a National Eating Disorders Association (Neda), maior organização sem fins lucrativos de apoio a indivíduos e famílias afetadas por distúrbios alimentares, tornou-se o exemplo do uso precipitado e imprudente da IA.

A pandemia da covid-19 gerou um aumento nas chamadas para a sua linha direta, de tal forma que seus funcionários e os 200 voluntários que a monitoravam mal conseguiram atender à demanda. Em resposta, a organização implementou o Tessa, um chatbot baseado em IA que ocasionou demissões para pessoal da linha direta. Mas, pior ainda, a Neda não conseguiu supervisionar ou controlar adequadamente o chatbot, que começou a dar conselhos prejudiciais às pessoas que procuravam o serviço.

A IA generativa levanta uma série de complexidades e de questões éticas. Grandes modelos de linguagem de aprendizagem como ChatGPT são treinados usando conteúdo da internet, incluindo sites como Wikipedia, Twitter e Reddit. Como esses dados incluem visões super-representadas, de supremacia branca, misóginas e preconceituosas, as ferramentas podem amplificar ainda mais esses preconceitos. O ChatGPT também pode fornecer informações falsas, ou o que os pesquisadores chamam de “alucinações”, respondendo às solicitações ou perguntas dos usuários com textos muito persuasivos, mas imprecisos.

Outro perigo é que o pessoal de captação de fundos que utilize qualquer um dos modelos públicos e gratuitos possa acidentalmente inserir informações privadas de doadores no modelo, dando a outros usuários acesso a elas.

Há, ainda, preocupações e ações judiciais crescentes concernentes à propriedade intelectual, porque muitas ferramentas de IA generativa  incorporaram textos e obras de arte protegidos por direitos autorais da Internet em seus bancos de dados sem permissão.

Além disso, existem riscos relacionados à ética narrativa. O Furniture Bank, uma organização sem fins lucrativos com sede em Toronto, por exemplo, usou, em uma campanha de arrecadação em 2022, imagens geradas por IA, mas de aspecto realista, de modo a atrair a simpatia de doadores. Levantou, além de doações, muitas questões éticas.

A adoção do ChatGPT também traz riscos à reputação, especialmente se as pessoas não revisarem cuidadosamente o texto gerado antes de compartilhá-lo; os resultados podem ser insensíveis e ofensivos.

Um restaurante KFC na Alemanha, por exemplo, enviou recentemente um tuíte gerado por IA sugerindo que as pessoas comemorassem a Kristallnacht com uma refeição KFC. O texto foi traduzido como: “É dia de relembrar a Noite dos Vidros Quebrados! Deleite-se com um queijo mais macio no seu frango crocante. Agora no KFCheese!” Já o Peabody College da Universidade Vanderbilt, no Tennessee, delegou ao ChatGPT a tarefa de escrever uma carta “comovida” convocando seus estudantes a se mostrarem como uma comunidade unida diante de um tiroteio em massa na Universidade Estadual de Michigan.

Utilizar a IA de forma ética não é um desafio técnico, mas sim um imperativo da liderança, e a sua adoção deve ser centrada no ser humano. Líderes precisam desenvolver diretrizes e oferecer formação para garantir que todos compreendam o que fazem e sejam cuidadosos e ponderados sobre a sua utilização. Isso inclui não apenas os responsáveis pela tecnologia, mas todos os funcionários.

Imaginar que os membros da equipe não estão usando IA generativa porque sua organização sem fins lucrativos não desenvolveu diretrizes ou proibiu seu uso é tolice. Uma pesquisa recente da Fishbowl mostra que 43% dos profissionais em muitas áreas distintas usam IA generativa e que 70% deles o fazem sem o conhecimento do chefe – sendo que talvez o chefe também esteja usando!

 

8 etapas para adotar IA de maneira responsável

 

Instamos as organizações a tomarem uma série de medidas para adotar a IA de forma inteligente e ética agora mesmo. Em vez de uma lista pronta, os pontos abaixo fornecem diretrizes para exploração, experimentação e crescimento contínuos.

  1. Seja sábio e informado. | Líderes de organizações sem fins lucrativos devem entender como as ferramentas de IA que a equipe está usando ou planejam usar em seu trabalho podem afetar as operações e os resultados. Em vez de correr para experimentá-las e falhar rapidamente, pense nos riscos e retornos potenciais de mergulhar nesse mundo. Desenvolvedores estão classificando a IA como uma espécie de “pó de pirlimpimpim”, mas é importante deixar claro o que cada ferramenta faz e o que não. Por exemplo, utilizar um chatbot na linha da frente para fornecer informações sobre saúde mental ou terapia é potencialmente perigoso, porque os médicos ainda estão tentando descobrir como implementá-los de forma eficaz e em que condições.

  2. Encare a ansiedade e os medos. | Talvez o maior receio em relação à IA seja que ela elimine empregos. Numa enquete recente da PwC com 52 mil pessoas em 44 países e territórios, quase um terço dos respondentes estava preocupado com o fato de a IA ou outras tecnologias os tornarem desnecessários nos próximos três anos. No entanto, a realidade provável, de acordo com o relatório sobre o emprego do Fórum Económico Mundial, é que os empregos mudarão, e não desaparecerão, e que isso acontecerá ao longo do tempo, e não imediatamente.

Para mitigar a ansiedade que os funcionários têm em relação às mudanças nos seus empregos e no trabalho, líderes podem conduzir conversas abertas e honestas sobre a utilização da tecnologia e as medidas que a organização está tomando para garantir que a sua utilização seja alinhada com valores e centrada no ser humano. Eles também podem oferecer garantias de que nenhum funcionário será demitido como resultado da adoção da IA pela organização e que ela melhorará e apoiará o trabalho da equipe.

  1. Mantenha-se centrado no ser humano. | Antes de adotar a IA, as organizações sem fins lucrativos devem criar um compromisso por escrito, explicando que ela será usada apenas de forma centrada no ser humano. Devem afirmar que as pessoas sempre supervisionarão a tecnologia e tomarão decisões finais sobre a sua utilização, de forma a não criarem ou exacerbarem preconceitos. Como nos disse Amy Sample Ward, CEO da Nonprofit Technology Enterprise Network (NTen): “Acho que uma das diretrizes mais simples e importantes é que as ferramentas não devem tomar decisões. Essa tem sido parte essencial da abordagem interna da Nten.”

As organizações devem prestar especial atenção aos casos em que a IA medeia a interação humana, como ao recolher informações de clientes para avaliar as condições de saúde mental ou prestar serviços de aconselhamento, nos quais os riscos para o bem-estar humano são maiores. Isso inclui pensar em fluxos de trabalho para co-boting: o que sempre terá a supervisão humana e de que modo os bots podem melhorar esse trabalho?

  1. Use os dados com segurança. | O setor sem fins lucrativos pode e deve elevar o nível da utilização segura e ética dos dados. Líderes devem responder “sim” a perguntas como: “Os autores de materiais escritos utilizados por nossa ferramenta de IA deram seu consentimento para serem incluídos no conjunto de dados?”; “Estamos dando aos nossos assinantes, doadores e outros apoiadores o direito ao esquecimento digital, como recomenda a União Europeia?”

O livro The Smart Nonprofit, assinado por dois de nós, dedica um capítulo inteiro a como líderes podem começar a responder a essas perguntas e compreender as questões de privacidade relacionadas às diferentes ferramentas que estão pensando em adotar.

  1. Mitigue riscos e preconceitos. | O campo da segurança cibernética utiliza um processo chamado “modelagem de ameaças” para imaginar o que pode dar errado na escolha de um exemplo de caso de uso de IA e o avanço desde seu protótipo, piloto, e até sua implementação completa. As organizações sem fins lucrativos devem implementar uma abordagem de planejamento semelhante, baseada no risco, para garantir que a utilização da IA seja segura e imparcial, incluindo a discussão e identificação dos piores cenários.

A organização sem fins lucrativos Best Friends Animal Society, por exemplo, queria usar um chatbot para ajudar potenciais adotantes de gatos a selecionar felinos durante sua campanha da Semana de Adoção do Gato Preto. No entanto, durante a fase de testes, descobriu-se que o chatbot poderia facilmente reproduzir insultos raciais ou insinuações sexuais inadequadas. Mesmo com um piloto controlado, era quase impossível treinar o bot sobre o que não dizer. Além disso, os programadores tinham gatos favoritos para recomendar, criando preconceitos, por isso a equipe decidiu seguir outras estratégias.

  1. Identifique os casos de uso corretos. | As organizações sem fins lucrativos deveriam começar usando a IA para resolver pontos problemáticos, gargalos e problemas que impedem que outras coisas aconteçam.

A equipe de desenvolvimento do Aquário Nacional de Baltimore, por exemplo, reconheceu que estava gastando muito tempo fazendo pesquisas de prospecção e então recorreu a um banco de dados de doadores orientado por IA que integrava totalmente os dados de triagem de riqueza, auxiliando no processo de copiar e colar dados e pesquisas de diferentes fontes.

Outro ponto problemático que pode ser eliminado é a perda de tempo procurando documentos ou respondendo às mesmas perguntas dos constituintes. Tarefas demoradas e extremamente repetitivas costumam ser boas candidatas para automação ou melhoria por meio de IA.

  1. Faça testes para o uso de IA. | As organizações nunca devem usar IA em grande escala sem ponderação cuidadosa e experimentos controlados. Os líderes devem começar com um teste que seja pequeno, limitado e avaliado pela equipe, incluindo aspectos como a forma como o uso da IA afetou o trabalho, seu relacionamento com a organização e seu tempo. Além de medir o impacto nos funcionários e nos stakeholders externos, as organizações precisam verificar cuidadosa e minuciosamente a precisão dos resultados e identificar qualquer preconceito antes da implementação.

Por exemplo, a organização sem fins lucrativos Talking Points desenvolveu um aplicativo que usa IA para traduzir conversas entre professores e pais que não falam inglês, mas começou a usá-lo somente após extensos testes com usuários para garantir que a tradução para diferentes idiomas fosse precisa.

  1. Redesenhe funções e aprenda no local de trabalho. | À medida que a IA comece a dar mais tempo aos funcionários e lhes permita assumir outras funções, as descrições dos cargos necessitarão de atualização e alguns vão precisar de qualificação para que possam supervisionar com eficácia e colher os benefícios da produtividade de ferramentas como o ChatGPT.

As organizações devem criar um manual compartilhado com as melhores práticas que inclua orientações sobre como elaborar prompts. Deve também estabelecer regras básicas, tais como se o pessoal deve utilizar os resultados da IA apenas como um primeiro rascunho; se deve verificar manualmente a veracidade das respostas; e se não há risco de compartilhar informações confidenciais com modelos públicos de IA.

Na Nten, a equipe pode usar qualquer análise, aprendizado de máquina ou outros sistemas tecnológicos para coletar ou fornecer perspectivas sobre dados ou informações, mas eles devem servir apenas como um ponto de análise. A equipe toma todas as decisões e executa todas as ações.

Finalmente, um local de trabalho saudável requer elos humanos. Então, o desenvolvimento de competências profissionais deve incluir o exercício da inteligência emocional, da empatia, da formação de problemas e da criatividade.

A IA, generativa ou não, provavelmente estará em todos os aspectos da vida organizacional nos próximos anos. Isso mudará fundamentalmente o que as pessoas fazem nas organizações e o que a tecnologia faz. Para se prepararem, os líderes seniores de organizações sem fins lucrativos devem começar a criar políticas robustas de utilização ética e responsável agora mesmo, a fim de garantir que as suas organizações permanecem centradas no ser humano e no comando da tecnologia.

O envolvimento responsável e ponderado não só colherá benefícios de produtividade e melhorará a experiência de trabalho dos funcionários das organizações, mas também as ajudará a servir melhor os clientes e a atrair mais doadores.

 

OS AUTORES

Beth Kanter obteve reconhecimento internacional como uma líder inovadora e treinadora nas áreas de transformação digital e bem-estar em locais de trabalho não rentáveis. Ela é coautora do premiado livro Happy Healthy Nonprofit: Impact Without Burnout e assina, com Allison Fine, The Smart Nonprofit.

Allison Fine é uma pioneira no domínio da tecnologia para o bem social. Etualmente atua como presidente da Every.org, entidade que permite que todas as organizações sem fins lucrativos aceitem qualquer tipo de método de pagamento de doação online sem cobrar taxas de plataforma ou de transação direta.

Philip Deng é cofundador e CEO da Grantable, uma das melhores ferramentas de IA para auxiliar a redação de concessões no mundo. Ele desenvolveu o protótipo com base em 15 anos de experiência trabalhando com organizações financiadas por subsídios no terceiro setor em três continentes.



Newsletter

Newsletter

Pular para o conteúdo