[DIÁRIOS DA IA] Como estruturar e implementar uma IA responsável

Não é apenas uma questão de conformidade regulatória, mas um imperativo moral para assegurar que as tecnologias de IA promovam o bem-estar social e respeitem os direitos humanos. / Imagem: SC Inova/DALL-E 


[09.08.2024]

Por Eduardo Barbosa, CEO da Brognoli Imóveis e um dos responsáveis pelo Conselho Mudando o Jogo (CMJ) em SC e RS. Escreve sobre inteligência artificial no ambiente corporativo na série “Diários de IA”

A Inteligência Artificial (IA) está cada vez mais presente em diversos aspectos de nossas vidas, e com isso surge a necessidade imperativa de garantir que esses sistemas sejam desenvolvidos e implementados de maneira ética, transparente e responsável. 

A IA Responsável não é apenas uma questão de conformidade regulatória, mas um imperativo moral para assegurar que as tecnologias de AI promovam o bem-estar social e respeitem os direitos humanos. Para alcançar este objetivo, é essencial que as organizações adotem uma abordagem estruturada que integre três pilares fundamentais: Pessoas, Processos e Tecnologia.

PILAR 1: PESSOAS 

O pilar “Pessoas” foca em quem está construindo ou utilizando a AI. Este pilar abrange a cultura da empresa, o treinamento, e as necessidades de liderança. Ele se desdobra em três elementos principais: Educar, Motivar e Comunicar.

Educar: A educação é crucial para garantir que as equipes envolvidas tenham as competências e conhecimentos necessários para aplicar os princípios éticos na análise de decisões envolvendo AI. Isso envolve identificar quem precisa de treinamento específico em ética e valores, quais são as lacunas de conhecimento e qual o formato mais adequado para esse aprendizado. A capacitação contínua é essencial para que todos os envolvidos possam engajar-se criticamente na aplicação de valores éticos ao desenvolvimento de AI.

Motivar: Este elemento está relacionado à criação de incentivos que reforcem positivamente o engajamento com práticas de AI Responsável. A motivação é vital para cultivar uma cultura organizacional que valorize a participação ativa em práticas éticas e na tomada de decisões responsáveis. Identificar quais ações ou comportamentos precisam ser incentivados e como isso será feito é uma parte fundamental para assegurar que os princípios éticos sejam incorporados no dia a dia da organização.

Comunicar: A comunicação eficiente dentro da organização é essencial para quebrar silos e fomentar a colaboração interdisciplinar em práticas de AI Responsável. É necessário identificar quem precisa se comunicar sobre AI Responsável, quais informações precisam ser trocadas e onde e quando essas conversas devem ocorrer. A comunicação clara e contínua ajuda a garantir que todos os departamentos estejam alinhados com os objetivos éticos da empresa.

PILAR 2: PROCESSOS 

O pilar “Processos” concentra-se em como a AI está sendo desenvolvida ou utilizada, abrangendo estruturas operacionais e de governança necessárias para a execução de AI Responsável. Este pilar inclui os elementos de Intenção, Implementação e Instrumentação.

Intenção: Refere-se à definição de políticas empresariais que forneçam diretrizes estratégicas para práticas éticas em AI. A intenção clara e consistente é necessária para orientar como os valores éticos serão geridos na prática. É preciso identificar quais funções empresariais precisam de diretrizes éticas e qual tipo de política será mais eficaz para fornecer essa orientação.

Implementação: Trata-se de criar um framework processual que direcione a execução de práticas de AI Responsável e a tomada de decisões éticas. A implementação eficiente assegura que haja um curso de ação padronizado para colocar em prática os valores éticos durante o ciclo de vida da AI. Decidir em que ponto do ciclo de vida da AI este framework será utilizado e se será necessário construir um novo, adaptar um existente ou personalizar um framework genérico é crucial para uma implementação bem-sucedida.

Instrumentação: Refere-se ao uso de ferramentas e software que padronizem a implementação das práticas de AI Responsável, automatizando processos onde apropriado e aumentando a eficiência. A escolha das ferramentas certas é essencial para garantir que a execução das práticas éticas seja escalável e consistente.

PILAR 3: TECNOLOGIA

O pilar “Tecnologia” foca no que está sendo construído ou utilizado em AI, abrangendo as melhores práticas de desenvolvimento e adoção necessárias para o sucesso ético da AI. Os três elementos principais deste pilar são Dados, Documentação e Domínio.

Dados: Refere-se à incorporação de valores éticos nos dados utilizados para treinar e testar modelos de AI. A gestão do ciclo de vida dos dados deve estar alinhada com os valores éticos da organização para garantir que a AI seja construída sobre uma base eticamente sólida. É necessário identificar quais valores éticos precisam ser incorporados, em qual estágio do ciclo de vida dos dados isso deve ocorrer e qual método será utilizado.

Documentação: A documentação de todas as decisões  tomadas durante o ciclo de vida de um modelo de AI é fundamental para a transparência. Esta prática assegura que as escolhas feitas durante o desenvolvimento do AI estejam claras e acessíveis, permitindo auditorias e revisões posteriores. Identificar quem é responsável por documentar essas decisões, quais tipos de decisões precisam ser registradas e onde essa documentação será armazenada é essencial para a governança de AI Responsável.

Domínio: Este elemento envolve a coleta de feedback de especialistas e clientes em momentos específicos do ciclo de vida da AI, permitindo que os modelos sejam refinados e alinhados com valores éticos. O feedback contínuo e especializado é vital para iterar e ajustar a AI de acordo com os valores éticos da organização. Decidir de quem o feedback é necessário, com que frequência ele deve ser coletado e em que estágio do ciclo de vida da AI isso deve acontecer são decisões críticas para este processo.

ROADMAP DE IMPLEMENTAÇÃO DA IA RESPONSÁVEL 

Diagnóstico Inicial: Avalie o estado atual da sua organização em relação à AI e identifique as lacunas nos três pilares: Pessoas, Processos e Tecnologia.

Desenvolvimento de Políticas e Diretrizes: Crie ou revise políticas que definam claramente a intenção ética da organização em relação à AI.

Capacitação e Educação: Implementar programas de treinamento para assegurar que todos os colaboradores envolvidos tenham as habilidades e conhecimentos necessários.

Ferramentas e Frameworks: Selecione e implemente ferramentas que suportem a padronização e automação de práticas de AI Responsável.

Feedback e Iteração: Estabeleça um ciclo contínuo de feedback com especialistas e clientes para ajustar e refinar os modelos de AI.

Monitoramento e Revisão: Monitore continuamente as práticas de AI Responsável e revise as políticas e frameworks conforme necessário para se adaptar a novos desafios e avanços tecnológicos.

Este roadmap fornece um guia claro e acionável para organizações que desejam adotar práticas de AI Responsável, assegurando que a tecnologia desenvolvida seja ética, transparente e beneficie a sociedade como um todo.

REFERÊNCIAS BIBLIOGRÁFICAS:

  • Gambelin, Olivia.Responsible AI: How to Implement AI That Aligns with Your Values and Your Organization. Kogan Page, 2023
  • Dignum, Virginia. Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way. Springer, 2019.
  • Floridi, Luciano, e Mariarosaria Taddeo. What Is Data Ethics? Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 374.2083 (2016): 20160360.
  • Mittelstadt, Brent Daniel, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter, e Luciano Floridi. The Ethics of Algorithms: Mapping the Debate. Big Data & Society, 3.2 (2016): 2053951716679679.

The post [DIÁRIOS DA IA] Como estruturar e implementar uma IA responsável appeared first on SC Inova.

Adicionar aos favoritos o Link permanente.