Sistema de IA que alimentam nossas redes sociais
Sistema de IA que alimentam nossas redes sociais
Há um mito persistente sobre os sistemas de IA que alimentam nossas redes sociais, plataformas de vídeo e sites de compras online: essa IA é exclusivamente construída, treinada e mantida por engenheiros altamente pagos.
Embora empresas como Amazon e Facebook dependam de cientistas da computação altamente pagos, elas também dependem de uma força de trabalho que os usuários de internet não ouvem falar. Em todo o mundo, milhares de trabalhadores de gig label data e algoritmos de trem que alimentam a tecnologia do consumidor. E esses trabalhadores de shows raramente recebem um salário justo ou recebem benefícios básicos.
Resumindo: há uma força de trabalho invisível e maltratada que torna possível a IA de hoje.
Quando comecei minha Sociedade Mozilla há mais de um ano, procurei ajudar a puxar a cortina sobre essa força de trabalho invisível, e também construir ferramentas para enfrentar essas desigualdades. Passei meses entrevistando os trabalhadores que treinam algoritmos e enfrentam desoneração e ofuscação.
Esta ferramenta não é apenas calcular um preço para tarefas. Em vez disso, a calculadora revela como as tarefas de rotulagem de dados ou treinamento de dados são realmente subestimadas. Ao contrário de outras ferramentas, essa calculadora leva em conta dias de trabalho e um salário mínimo — não apenas precificando um monte de tarefas no agregado. A calculadora define um salário vivo para os padrões do Estado de Washington, onde a Amazon está sediada. O salário mínimo de Washington gira em torno de US$ 11 — muito mais do que os turcos amazônicos geralmente são pagos.
Esta ferramenta pode ser usada por jornalistas para determinar se uma empresa está pagando salários justos. Pode ser usado pelos trabalhadores para determinar se estão sendo razoavelmente compensados. E pode ser usado por empregadores que querem oferecer um salário justo.
Falei com mais de uma dúzia de trabalhadores da CrowdFlower, Mechanical Turk e Fiverr, além de pesquisadores e professores que analisam a desigualdade trabalhista e operária em Turco Mecânico.
Além disso, depois de entrevistar artistas, pesquisadores em laboratórios, startups e funcionários de grandes empresas de tecnologia, percebi uma grande vantagem: mesmo aqueles que queriam ser "éticos" ou criar equidade em suas práticas e pipelines, ainda tinham dificuldade em entender os preços em Turco Mecânico. Ou seja, mesmo que quisessem, não estavam precificando de forma justa, porque ferramentas como a Mechanical Turk não mostram um cálculo em relação ao tempo gasto em uma tarefa. As pessoas estavam acidentalmente abaixo dos preços, mesmo quando estavam tentando dar um bom salário.
Como artista e pesquisador de IA, acredito que analisar todo o pipeline de IA desde a coleta de dados e a estrutura de conjunto de dados até o treinamento de rotulagem e modelagem de dados de dados — bem como a estrutura e criação de algoritmos — é importante no enfrentamento da IA e do viés prejudiciais. Todos esses diferentes conjuntos devem ser analisados separadamente e também em conjunto em termos de estudo dos impactos potencialmente negativos da IA na sociedade.
Este trabalho faz parte de uma iniciativa de pesquisa maior da minha chamada Feminist Data
Set. Feminist Data Set é um projeto de vários anos que interroga cada etapa do processo de IA que inclui coleta de dados, rotulagem de dados, treinamento de dados, selecionar um algoritmo para usar, o modelo algorítmico e, em seguida, projetar como o modelo é então colocado em um chatbot (e como o chatbot se parece). Cada passo existe para questionar e analisar o pipeline de criação usando machine learning — é cada passo feminista, é interseccional, cada passo tem viés e como esse viés pode ser removido? Pedagogicamente, o Feminist Data Set opera em uma veia semelhante ao "Projeto Torradeira", de Thomas Thwaites, um projeto crítico no qual Thwaites constrói uma torradeira comercial do zero. O Feminist Data Set, no entanto, tem uma visão crítica e artística sobre software, particularmente machine learning. O que significa fazer aprendizado de máquina cuidadosamente, considerar cuidadosamente todos os ângulos de fazer, iterar e projetar? Cada etapa desse processo precisa ser completamente reexaminada através de uma lente feminista.
Este trabalho faz parte de uma iniciativa de pesquisa maior da minha chamada Feminist Data
Set. Feminist Data Set é um projeto de vários anos que interroga cada etapa do processo de IA que inclui coleta de dados, rotulagem de dados, treinamento de dados, selecionar um algoritmo para usar, o modelo algorítmico e, em seguida, projetar como o modelo é então colocado em um chatbot (e como o chatbot se parece). Cada passo existe para questionar e analisar o pipeline de criação usando machine learning — é cada passo feminista, é interseccional, cada passo tem viés e como esse viés pode ser removido? Pedagogicamente, o Feminist Data Set opera em uma veia semelhante ao "Projeto Torradeira", de Thomas Thwaites, um projeto crítico no qual Thwaites constrói uma torradeira comercial do zero. O Feminist Data Set, no entanto, tem uma visão crítica e artística sobre software, particularmente machine learning. O que significa fazer aprendizado de máquina cuidadosamente, considerar cuidadosamente todos os ângulos de fazer, iterar e projetar? Cada etapa desse processo precisa ser completamente reexaminada através de uma lente feminista.
Muitas vezes as ferramentas que preciso para fazer o Conjunto de Dados Feministas não existem. Por exemplo, o que é uma plataforma feminista de treinamento de dados? Turk mecânico e CrowdFlower, que pagam mal aos seus trabalhadores, não são feministas da interseccionalidade, então não posso usá-los.
Uma ferramenta de treinamento gratuita e de código aberto
Esta ferramenta pode ser usada para rotular e treinar conjuntos de dados de imagem e texto para aprendizado de máquina. Ele pode ser usado pelos próprios trabalhadores do show, mas também por artistas e pesquisadores que preferem uma alternativa de código aberto ao turco mecânico da Amazon.
Como criador, artista e designer, me preocupo muito com a estrutura e intenção das minhas próprias ferramentas — quem as faz, como foram feitas e qual é o poder associado à ferramenta que estou usando? Como o mantenedor ou companhia desta ferramenta interage com a sociedade? Para mim, usar código aberto quando posso é tanto uma declaração política quanto pessoal. O código aberto não é perfeito e não é uma panaceia quando se trata de tecnologia infligindo danos na sociedade, mas um foco em ferramentas de código aberto melhor, mais acessível e mais utilizável podem ajudar a fornecer alternativas às ferramentas com fins lucrativos mantidas por empresas com valores questionáveis. Como designer, acredito que o que faço deve ser útil e utilizável para os outros, não apenas uma ferramenta para mim. Especialmente como um designer que trabalha em código aberto, quando faço algo, é importante que seja fácil para qualquer pessoa usar, independentemente da formação técnica. Essa foi a minha inspiração por trás de fazer uma ferramenta baseada em navegador que qualquer pessoa poderia usar para treinar e rotular conjuntos de dados. O ponto aqui não é apenas oferecer uma base de código e esperar que seja uma solução. Ao fornecer uma ferramenta com interfaces utilizáveis e um bom design, agora qualquer pessoa tem uma ferramenta pronta para rotulagem e treinamento de dados baseada em navegador. O design é tão político quanto código e política — ajuda a tornar as coisas úteis para todos os usuários, não apenas para engenheiros.
A desigualdade no espaço de IA é uma questão urgente que precisa ser tratada à medida que as tecnologias de IA se tornam cada vez mais comuns. E é um trabalho que é especialmente relevante agora, quando milhões de indivíduos desempregados e em quarentena estão se voltando para o trabalho remoto.
Comentários
Postar um comentário