Princípios e práticas para a construção de uma inteligência artificial mais confiável

Por: Tonny Martins 13/01/2022

A inteligência artificial (IA) está mudando a forma como as empresas operam, desde como se comunicam com seus clientes, através de assistentes virtuais, até a automatização dos fluxos de trabalho essenciais ou a gestão de segurança de rede. Na América Latina, os dados sobre o uso da IA são fortes: 21% dos profissionais de TI entrevistados na região observaram que seus negócios estão utilizando IA agora, enquanto 43% relataram que suas organizações aceleraram a implementação da IA como resultado da pandemia de COVID-19, de acordo com o AI Adoption Index, realizado pela Morning Consult, a pedido de IBM.

Ao mesmo tempo em que vejo essa adoção acelerada em empresas de tamanhos e indústrias diferentes, que reconhecem o valor da IA como chave para enfrentar diferentes desafios, cada vez mais essas organizações e o mercado em geral começam a se preocupar com a forma como essa tecnologia está sendo usada. Hoje, essas considerações são mais importantes do que nunca, porque a IA pode ter um impacto significativo na vida das pessoas. É por isso que organizações e provedores que usam IA têm a responsabilidade fundamental de construir sistemas de confiança e garantir que a tecnologia seja projetada e utilizada de forma responsável em todos os momentos durante o ciclo de vida da IA.

Por essa razão, acreditamos em uma IA ética e confiável. Nesse sentido, a IBM desenvolveu princípios, pilares e práticas multidisciplinares e multidimensionais. Os princípios deixam claro que o propósito da inteligência artificial é aumentar a inteligência humana; que a IA deve beneficiar toda a sociedade; que os dados e insights gerados pertencem ao seu criador; e que poderosas novas tecnologias, como a própria IA, devem ser transparentes, explicáveis e mitigar preconceitos nocivos e inadequados.

A concepção desses princípios e pilares deu origem a práticas que veem seus frutos na integração de grupos de trabalho para discutir, recomendar e orientar o desenvolvimento e a implementação da inteligência artificial. Através de um Conselho de Ética de IA que fornece governança centralizada e autoridade de tomada de decisão, uma cultura de ética tecnológica é fomentada por toda a companhia. É pelo comprometimento com esses princípios que é possível ajudar a prevenir que preconceitos, por exemplo, possam ser transmitidos a soluções de IA que nos habilitam a enfrentar as necessidades das empresas para que elas possam avançar na implementação da tecnologia com confiança.


Continua depois da publicidade


Enquanto empresa, procuramos desenvolver soluções especificamente projetadas para ajudar companhias não apenas a estabelecer e executar estratégias de IA, mas também a fomentar a confiança em seus sistemas de IA atuais e futuros e a colocá-los em operação. A IA responsável não é um tema isolado de uma empresa ou outra: para alcançá-la, é necessário um ecossistema aberto e diversificado.

E fazemos isso trabalhando lado a lado com todo o ecossistema de inovação da América Latina - incluindo nossos clientes, universidades e organizações da sociedade civil, entre outros - para incentivar o uso responsável da tecnologia. Trabalhamos juntos para garantir que a IA seja enriquecida a partir da pluralidade do ecossistema de dados, com uma variedade de profissionais e parceiros que possibilitam o feedback e a melhoria contínua nessa área. Cabe a todos os atores garantir o uso ético das tecnologias através do trabalho conjunto.

A IA tem o potencial de transformar a forma como vivemos e trabalhamos. Nossa responsabilidade é usá-la seguindo princípios éticos e transparentes para um futuro de negócios e uma sociedade melhor para todos.

*O conteúdo e a opinião expressa neste artigo não representam a opinião do Grupo CIMM e são de responsabilidade do autor.

Gostou? Então compartilhe:

Tonny Martins

Gerente Geral da IBM América Latina.