Este texto foi lambido por 332 almas esse mês
traduzido por por Kaio Shimanski do Centro Pineal
O crescimento explosivo da inteligência artificial alimentou a esperança de que ela nos ajudará a resolver muitos dos problemas mais intratáveis do mundo. No entanto, também há muita preocupação com o poder da IA e um consenso crescente de que seu uso deve ser orientado para evitar infringir nossos direitos.
Muitos grupos discutiram e propuseram diretrizes éticas sobre como a IA deve ser desenvolvida ou implantada: o IEEE, uma organização profissional global para engenheiros, publicou um documento de 280 páginas sobre o assunto (para o qual eu contribuí) e a União Européia publicou seu próprio quadro. O Inventário Global das Diretrizes de Ética da AI compilou mais de 160 dessas diretrizes de todo o mundo.
Infelizmente, a maioria dessas diretrizes é desenvolvida por grupos ou organizações concentradas na América do Norte e na Europa: uma pesquisa publicada pela cientista social Anna Jobin e seus colegas encontrou 21 nos EUA, 19 na UE, 13 no Reino Unido, quatro no Japão, e um dos Emirados Árabes Unidos, Índia, Cingapura e Coréia do Sul.
As diretrizes refletem os valores das pessoas que as emitem. O fato de a maioria das diretrizes de ética da IA estarem sendo escritas em países ocidentais significa que o campo é dominado por valores ocidentais, como respeito à autonomia e aos direitos dos indivíduos, especialmente porque as poucas diretrizes emitidas em outros países refletem principalmente as do Ocidente.
Diretrizes escritas em diferentes países podem ser semelhantes porque alguns valores são realmente universais. No entanto, para que essas diretrizes reflitam verdadeiramente as perspectivas das pessoas em países não ocidentais, elas também precisariam representar os sistemas de valores tradicionais encontrados em cada cultura.
As pessoas tanto no Oriente quanto no Ocidente precisam compartilhar suas ideias e considerar as dos outros para enriquecer suas próprias perspectivas. Como o desenvolvimento e o uso da IA abrangem todo o mundo, a maneira como pensamos sobre isso deve ser informada por todas as principais tradições intelectuais.
Com isso em mente, acredito que insights derivados do ensinamento budista podem beneficiar qualquer pessoa que trabalhe com ética em IA em qualquer lugar do mundo, e não apenas em culturas tradicionalmente budistas (que estão principalmente no leste e principalmente no sudeste da Ásia).
O budismo propõe uma forma de pensar a ética baseada na suposição de que todos os seres sencientes desejam evitar a dor. Assim, o Buda ensina que uma ação é boa se leva à libertação do sofrimento.
A implicação desse ensino para a inteligência artificial é que qualquer uso ético da IA deve se esforçar para diminuir a dor e o sofrimento. Em outras palavras, por exemplo, a tecnologia de reconhecimento facial deve ser usada apenas se puder reduzir o sofrimento ou promover o bem-estar. Além disso, o objetivo deve ser reduzir o sofrimento de todos – não apenas daqueles que interagem diretamente com a IA.
É claro que podemos interpretar esse objetivo de forma ampla para incluir a correção de um sistema ou processo insatisfatório ou a mudança de qualquer situação para melhor. Usar a tecnologia para discriminar as pessoas, ou vigiá-las e reprimi-las, seria claramente antiético. Quando há áreas cinzentas ou a natureza do impacto não é clara, o ônus da prova caberia àqueles que procuram mostrar que uma aplicação específica de IA não causa danos.
Fazer nenhum mal
Uma ética de IA de inspiração budista também entenderia que viver de acordo com esses princípios requer autocultivo. Isso significa que aqueles que estão envolvidos com a IA devem se treinar continuamente para se aproximarem do objetivo de eliminar totalmente o sofrimento. Atingir a meta não é tão importante; o importante é que empreendam a prática para alcançá-lo. É a prática que conta.
Designers e programadores devem praticar reconhecendo esse objetivo e estabelecendo etapas específicas que seu trabalho tomaria para que seu produto incorporasse o ideal. Ou seja, a IA que eles produzem deve ter como objetivo ajudar o público a eliminar o sofrimento e promover o bem-estar.
Para que isso seja possível, as empresas e agências governamentais que desenvolvem ou usam IA devem prestar contas ao público. A responsabilidade também é um ensinamento budista e, no contexto da ética da IA, requer mecanismos legais e políticos eficazes, bem como independência judicial. Esses componentes são essenciais para que qualquer diretriz de ética da IA funcione conforme o esperado.
Outro conceito-chave no budismo é a compaixão, ou o desejo e o compromisso de eliminar o sofrimento dos outros. A compaixão também requer auto-cultivo, e isso significa que atos prejudiciais, como exercer o poder de reprimir os outros, não têm lugar na ética budista. Não é preciso ser monge para praticar a ética budista, mas é preciso praticar o autocultivo e a compaixão na vida diária.
Podemos ver que os valores promovidos pelo budismo – incluindo responsabilidade, justiça e compaixão – são basicamente os mesmos encontrados em outras tradições éticas. Isto é esperado; somos todos seres humanos, afinal. A diferença é que o budismo defende esses valores de uma maneira diferente e talvez coloque uma ênfase maior no auto-cultivo.
O budismo tem muito a oferecer a quem pensa no uso ético da tecnologia, incluindo aqueles interessados em IA. Acredito que o mesmo também é verdade para muitos outros sistemas de valores não-ocidentais. As diretrizes de ética da IA devem se basear na rica diversidade de pensamento das muitas culturas do mundo para refletir uma variedade mais ampla de tradições e ideias sobre como abordar problemas éticos. O futuro da tecnologia só será mais brilhante para ela.
Texto traduzido por Kaio Shimanski do original: https://www.technologyreview.com/2021/01/06/1015779/what-buddhism-can-do-ai-ethics
Alimente sua alma com mais:
Conheça as vantagens de se juntar à Morte Súbita inc.