Python

17 jul, 2020

IBM doa toolkits de Trusted AI de código aberto para a Linux Foundation

Publicidade
A Inteligência Artificial (IA) vem trazendo uma forte transformação em nossa sociedade. E avançar nos princípios de confiança e transparência é essencial para o desenvolvimento desta tecnologia. A responsabilidade não é apenas fazer os avanços técnicos necessários para tornar a IA confiável e ética, mas também garantir que esses algoritmos confiáveis ​​funcionem conforme o esperado nas implantações da IA​​no mundo real.

Para reforçar esse conceito e a acessibilidade às ferramentas, a IBM desenvolveu dois toolkits de Trusted AI de código aberto: AIFairness 360, Adversarial Robustness 360 e o AI Explainability 360, que foram acolhidos pelo Comitê de Aconselhamento Técnico da Linux AI Foundation (LFAI) para incubar esses projetos no LFAI. A doação desses projetos à LFAI possibilitará a criação pela IA de tecnologias responsáveis ​ e permitirá que a comunidade em geral introduza e cocrie essas ferramentas sob a direção da Linux Foundation.

IBM Toolkits

O AI Fairness 360 Toolkit (AIF360) é um kit de ferramentas de código aberto que pode auxiliar a detectar e mitigar preconceitos indesejados nos modelos de aprendizado de máquina e nos conjuntos de dados. Ele fornece aproximadamente 70 métricas para testar vieses e 11 algoritmos para mitigar vieses em conjuntos de dados e modelos. A experiência interativa AI Fairness 360 fornece uma introdução amigável aos conceitos e capacidades. Recentemente, o AIF360 também anunciou suporte ao Scikit Learn e uma interface de usuário para R.


Adversarial Robustness 360 (ART) Toolbox é uma biblioteca Python para segurança de aprendizado de máquina. O ART fornece ferramentas que permitem que desenvolvedores e pesquisadores avaliem, protejam, certifiquem e verifiquem modelos e aplicativos de aprendizado de máquina contra ameaças de evasão, manipulação, extração e inferência.
O ART suporta todas as estruturas de aprendizado de máquina mais populares (TensorFlow, Keras, PyTorch, MXNet, scikit-learn, XGBoost, LightGBM, CatBoost, GPy etc.), todos os tipos de dados (imagens, tabelas, áudio, vídeo, etc.) e tarefas de aprendizado de máquina (classificação, detecção de objetos, geração, certificação etc.).

AI Explainability 360 (AIX360) Toolkit é um conjunto completo de ferramentas de código aberto com vários algoritmos, códigos, guias, tutoriais e demonstrações que suportam a interpretabilidade e a explicabilidade dos modelos de aprendizado de máquina. A experiência interativa do AI Explainability 360 fornece uma introdução amigável a seus conceitos e recursos, à medida que você navega nos casos de uso de exemplo para diferentes consumidores.
Missão com o Comitê de IA Confiável da Linux AI Foundation

No ano passado, a IBM trabalhou com a Linux AI Foundation para estabelecer o Comitê de Inteligência Artificial Confiável da Fundação, com a missão de promover a prática de Inteligência Artificial confiável. Desde então, o comitê cresceu para incluir mais de 10 organizações, trabalhando para definir e estabelecer princípios de confiança nas implementações de IA. Uma das atividades promovidas por esse comitê é a integração dos kits de ferramentas do Trust 360 nos Apache Nifi ou Kubeflow Pipelines, como forma de promover fluxos de trabalho confiáveis ​​de aprendizado de máquina.

Ele também reconheceu que, quando se trata de promover uma IA confiável, benéfica e equitativa, a tecnologia é apenas parte da equação. Temos a responsabilidade de examinar o contexto mais amplo de como os sistemas de IA estão sendo projetados e implementados, como estão sendo usados ​​e por quem e avaliar seu impacto nos usuários e comunidades.

Nesta missão, as contribuições das ciências sociais, política, direito e diversas perspectivas desempenham um papel tão importante quanto a própria tecnologia.

Para mais detalhes sobre a doação dos toolkits, acesse http://developer.ibm.com/blogs/ibm-and-lfai-move-forward-on-trustworthy-and-responsible-ai/.