Como fazer uma abordagem cuidadosa da IA ​​reduz conjuntos de dados tendenciosos

Conjuntos de dados tendenciosos e IA ética

As soluções alimentadas por IA precisam de conjuntos de dados para serem eficazes. E a criação desses conjuntos de dados está repleta de um problema de viés implícito em um nível sistemático. Todas as pessoas sofrem de preconceitos (tanto conscientes quanto inconscientes). Os preconceitos podem assumir várias formas: geográfica, linguística, socioeconômica, sexista e racista. E essas tendências sistemáticas são incorporadas aos dados, o que pode resultar em produtos de IA que perpetuam e aumentam as tendências. As organizações precisam de uma abordagem cuidadosa para mitigar o preconceito que se insinua nos conjuntos de dados.

Exemplos que ilustram o problema de preconceito

Um exemplo notável desse viés do conjunto de dados que gerou muitos comentários negativos na imprensa na época foi uma solução de leitura de currículo que favorecia candidatos do sexo masculino em relação ao feminino. Isso ocorre porque os conjuntos de dados da ferramenta de recrutamento foram desenvolvidos usando currículos da última década, quando a maioria dos candidatos era do sexo masculino. Os dados eram tendenciosos e os resultados refletiam esse viés. 

Outro exemplo amplamente divulgado: na conferência anual de desenvolvedores do Google I / O, o Google compartilhou uma prévia de uma ferramenta de assistência dermatológica alimentada por IA que ajuda as pessoas a entender o que está acontecendo com problemas relacionados à pele, cabelo e unhas. O assistente de dermatologia ressalta como a IA está evoluindo para ajudar na área de saúde - mas também destacou o potencial de viés para se infiltrar na IA após as críticas de que a ferramenta não é adequada para pessoas de cor.

Quando o Google anunciou a ferramenta, a empresa observou:

Para garantir que estamos construindo para todos, nosso modelo leva em conta fatores como idade, sexo, raça e tipos de pele - desde pele clara que não bronzeada até pele morena que raramente queima.

Google, usando IA para ajudar a encontrar respostas para problemas de pele comuns

Mas um artigo da Vice disse que o Google falhou em usar um conjunto de dados inclusivo:

Para realizar a tarefa, os pesquisadores usaram um conjunto de dados de treinamento de 64,837 imagens de 12,399 pacientes localizados em dois estados. Mas, dos milhares de problemas de pele retratados, apenas 3.5% vieram de pacientes com Fitzpatrick dos tipos de pele V e VI - aqueles que representam pele morena e morena escura ou negra, respectivamente. 90 por cento do banco de dados era composto de pessoas com pele clara, pele branca mais escura ou pele morena clara, de acordo com o estudo. Como resultado da amostragem tendenciosa, os dermatologistas dizem que o aplicativo pode acabar super ou subdiagnosticando pessoas que não são brancas.

Vice, o novo aplicativo de dermatologia do Google não foi projetado para pessoas com pele mais escura

O Google respondeu dizendo que refinaria a ferramenta antes de lançá-la formalmente:

Nossa ferramenta de assistência dermatológica alimentada por IA é o resultado de mais de três anos de pesquisa. Desde que nosso trabalho foi apresentado na Nature Medicine, continuamos a desenvolver e refinar nossa tecnologia com a incorporação de conjuntos de dados adicionais que incluem dados doados por milhares de pessoas e milhões de imagens de pele com curadoria.

Google, usando IA para ajudar a encontrar respostas para problemas de pele comuns

Por mais que possamos esperar que os programas de IA e de aprendizado de máquina possam corrigir esses preconceitos, a realidade permanece: eles são apenas inteligente pois seus conjuntos de dados estão limpos. Em uma atualização do antigo ditado de programação lixo entra / lixo sai, As soluções de IA são tão fortes quanto a qualidade de seus conjuntos de dados desde o início. Sem uma correção dos programadores, esses conjuntos de dados não têm a experiência de fundo para se consertar - já que eles simplesmente não têm outro quadro de referência.

Construir conjuntos de dados com responsabilidade está no centro de tudo inteligência artificial ética. E as pessoas estão no centro da solução. 

Mindful AI é Ethical AI

O preconceito não acontece no vácuo. Conjuntos de dados antiéticos ou tendenciosos vêm de uma abordagem errada durante o estágio de desenvolvimento. A maneira de combater os erros de preconceito é adotar uma abordagem responsável e centrada no ser humano que muitos na indústria estão chamando de Inteligência Artificial. Mindful AI tem três componentes essenciais:

1. Mindful AI é centrada no ser humano

Desde o início do projeto de IA, nos estágios de planejamento, as necessidades das pessoas devem estar no centro de todas as decisões. E isso significa todas as pessoas - não apenas um subconjunto. É por isso que os desenvolvedores precisam contar com uma equipe diversificada de pessoas com base global para treinar os aplicativos de IA para serem inclusivos e livres de preconceitos.

O crowdsourcing dos conjuntos de dados de uma equipe global diversificada garante que os preconceitos sejam identificados e filtrados antecipadamente. Pessoas de diferentes etnias, grupos de idade, gêneros, níveis de educação, origens socioeconômicas e locais podem identificar mais prontamente conjuntos de dados que favorecem um conjunto de valores em detrimento de outro, eliminando assim preconceitos não intencionais.

Dê uma olhada nos aplicativos de voz. Ao aplicar uma abordagem de IA consciente e alavancar o poder de um pool global de talentos, os desenvolvedores podem considerar os elementos linguísticos, como diferentes dialetos e sotaques nos conjuntos de dados.

Estabelecer uma estrutura de design centrada no ser humano desde o início é fundamental. É um grande passo para garantir que os dados gerados, com curadoria e rotulados atendam às expectativas dos usuários finais. Mas também é importante manter os humanos informados durante todo o ciclo de vida de desenvolvimento do produto. 

Os seres humanos no circuito também podem ajudar as máquinas a criar uma experiência de IA melhor para cada público específico. Na Pactera EDGE, nossas equipes de projeto de dados de IA, localizadas globalmente, entendem como diferentes culturas e contextos podem impactar a coleta e a curadoria de dados confiáveis ​​de treinamento de IA. Eles têm as ferramentas necessárias para sinalizar problemas, monitorá-los e corrigi-los antes de uma solução baseada em IA entrar em operação.

A IA humana no circuito é uma “rede de segurança” de projeto que combina os pontos fortes das pessoas - e suas diversas origens com o rápido poder de computação das máquinas. Essa colaboração humana e de IA precisa ser estabelecida desde o início dos programas para que dados tendenciosos não formem uma base para o projeto. 

2. Mindful AI é responsável

Ser responsável é garantir que os sistemas de IA sejam isentos de preconceitos e que sejam fundamentados na ética. Trata-se de estar atento a como, por que e onde os dados são criados, como são sintetizados por sistemas de IA e como são usados ​​na tomada de decisões, decisões que podem ter implicações éticas. Uma maneira de uma empresa fazer isso é trabalhar com comunidades sub-representadas para ser mais inclusivo e menos tendencioso. No campo das anotações de dados, uma nova pesquisa está destacando como um modelo multitarefa com vários anotadores que trata os rótulos de cada anotador como subtarefas separadas pode ajudar a mitigar possíveis problemas inerentes aos métodos de verdade terrestre típicos, onde discordâncias do anotador podem ser devido a sub-representações e pode ser ignorado na agregação de anotações a uma única verdade fundamental. 

3. Confiável

A confiabilidade vem de uma empresa ser transparente e explicável em como o modelo de IA é treinado, como funciona e por que recomenda os resultados. Uma empresa precisa de experiência com localização de IA para possibilitar que seus clientes tornem seus aplicativos de IA mais inclusivos e personalizados, respeitando nuances críticas no idioma local e nas experiências do usuário que podem fazer ou quebrar a credibilidade de uma solução de IA de um país para o outro . Por exemplo, uma empresa deve projetar seus aplicativos para contextos personalizados e localizados, incluindo idiomas, dialetos e sotaques em aplicativos baseados em voz. Dessa forma, um aplicativo traz o mesmo nível de sofisticação de experiência de voz para todos os idiomas, do inglês aos idiomas sub-representados.

Justiça e Diversidade

Em última análise, a AI consciente garante que as soluções sejam construídas sobre conjuntos de dados justos e diversos, onde as consequências e o impacto de resultados específicos são monitorados e avaliados antes que a solução chegue ao mercado. Por estarmos atentos e incluirmos humanos em cada parte do desenvolvimento da solução, ajudamos a garantir que os modelos de IA permaneçam limpos, com o mínimo de preconceito e o mais éticos possível.

O que você acha?

Este site usa o Akismet para reduzir o spam. Saiba como seus dados de comentário são processados.