Imprimir
Visto: 2496

 budismo inteligencia artificial

Ms Tech | Unsplash 

Inteligencia Artificial

La importancia del budismo para diseñar la ética de la IA

La mayoría de las guías de ética para la inteligencia artificial se basan en valores occidentales y no representan a la población en su conjunto. El budismo nos enseña a enfocar nuestra energía en eliminar el sufrimiento del mundo, justo lo que la tecnología necesita 

por Soraj Hongladarom | traducido por Ana Milutinovic

12 Enero, 2021

Tomado de: MIT Technology Review

https://www.technologyreview.es/s/13062/la-importancia-del-budismo-para-disenar-la-etica-de-la-ia

El crecimiento explosivo de la inteligencia artificial (IA) ha aumentado la esperanza de que la tecnología nos ayude a resolver muchos de los problemas más complicados del mundo. Sin embargo, también ha generado una gran preocupación por su enorme poder y un consenso generalizado sobre la urgencia de supervisar sus usos para evitar que vulneren nuestros derechos.

Muchos grupos han debatido y propuesto pautas éticas sobre cómo se debe desarrollar e implementar la IA: la organización global para ingenieros IEEE ha publicado un documento de 280 páginas sobre el tema (al que contribuí), y la Unión Europea también ha diseñado su propio marco. El Inventario global de pautas éticas de IA ya reune más de 160 recomendaciones de diferentes partes del mundo.

Lamentablemente, la mayoría de ellas han sido creadas por grupos u organizaciones de América del Norte y Europa: una encuesta publicada por la científica social Anna Jobin y sus colegas encontró 21 en EE. UU., 19 en la UE, 13 en Reino Unido, cuatro en Japón, y una en los Emiratos Árabes Unidos, India, Singapur y Corea del Sur.

Las pautas reflejan los valores de las personas que las emiten. El hecho de que la mayoría de las pautas éticas para la IA se creen en países occidentales significa que el campo está dominado por valores occidentales como el respeto por la autonomía y los derechos de las personas, especialmente porque las escasas pautas diseñadas por otros países también reflejan las de Occidente.

Las que se escriben en diferentes países pueden ser similares porque algunos valores son universales. Sin embargo, para que de verdad reflejen las opiniones de las personas de los países no occidentales, también deberían representar los valores tradicionales de cada cultura.

Tanto en Oriente como en Occidente, las personas necesitan compartir sus ideas y escuchar las de los demás para enriquecer sus propios puntos de vista. Como el desarrollo y el uso de la IA se extienden por todo el mundo, nuestra forma de abordarla debe basarse en todas las tradiciones intelectuales principales.

Con eso en mente, creo que los principios del budismo podrían beneficiar a cualquiera que trabaje en la ética de la IA en cualquier parte del mundo, y no solo en las culturas tradicionalmente budistas (que se encuentran en su mayoría en el este y principalmente en el sudeste asiático).

El budismo propone una forma de pensar sobre la ética basada en el supuesto de que todos los seres sintientes quieren evitar el dolor. Por eso, el Buda enseña que una acción es buena si conduce a la liberación del sufrimiento.

La implicación de esta enseñanza en la inteligencia artificial es que cualquier uso ético de la IA debe procurar disminuir el dolor y el sufrimiento. En otras palabras, por ejemplo, la tecnología de reconocimiento facial solo debe usarse si se puede demostrar que reduce el sufrimiento o fomenta el bienestar. Además, el objetivo debería ser reducir el sufrimiento de todos, no solo de aquellos que interactúan directamente con la IA.

Por supuesto, podemos interpretar este objetivo de manera amplia para incluir la reparación de un sistema o proceso que no sea satisfactorio, o cambiar cualquier situación a mejor. Usar la tecnología para discriminar a las personas, o para vigilarlas y reprimirlas, claramente no sería ético. Cuando hay áreas grises o la naturaleza del impacto no está clara, la responsabilidad de la prueba recaería en aquellos interesados en demostrar que una aplicación particular de la IA no causa daño.

No hacer daño

La ética de la IA inspirada en el budismo también supondría que para vivir según estos principios es necesario el autocrecimiento. Esto significa que quienes están involucrados con la IA deben entrenarse continuamente para acercarse al objetivo de eliminar por completo el sufrimiento. Alcanzar la meta no es tan importante; lo importante es que emprendan la práctica para lograrlo. La práctica es lo que cuenta.

Los diseñadores y programadores deben practicar para reconocer este objetivo y establecer los pasos específicos que deberían dar para que su producto encarne el ideal. Es decir, la IA que producen debe tener como objetivo ayudar a la gente a eliminar el sufrimiento y promover el bienestar.  

Para que todo esto sea posible, las empresas y agencias gubernamentales que desarrollan o utilizan la IA deben asumir su parte de responsabilidad. Eso también es una enseñanza budista y, en el contexto de la ética de la IA, requiere mecanismos jurídicos y políticos eficaces, así como independencia judicial. Estos componentes son esenciales para que cualquier pauta ética de la IA funcione según lo previsto.

Otro concepto clave en el budismo es la compasión o el deseo y compromiso de eliminar el sufrimiento de los demás. La compasión también requiere autocrecimiento, y significa que los actos dañinos como ejercer el poder de uno para reprimir a otros no tienen lugar en la ética budista. No es necesario ser monje para ejercer la ética budista, pero sí hay que practicar el autocrecimiento y la compasión en la vida diaria.

Podemos ver que los valores promovidos por el budismo, incluidos la responsabilidad, la justicia y la compasión, son en su mayoría los mismos que se encuentran en otras tradiciones éticas. Esto no debe sorprender; todos somos seres humanos, al fin y al cabo. La diferencia consiste en que el budismo defiende estos valores de una manera distinta y quizás pone un mayor énfasis en el autocrecimiento.

El budismo tiene mucho que ofrecer a cualquiera que piense en el uso ético de la tecnología, y también a los interesados en la IA. Creo que lo mismo ocurre con muchos otros sistemas de valores no occidentales. Las pautas éticas de la IA deben basarse en la rica diversidad de pensamiento de las muchas culturas del mundo para reflejar una variedad más amplia de tradiciones e ideas sobre cómo abordar los problemas éticos. El futuro de la tecnología sería más brillante de esa manera.

*Soraj Hongladarom es profesor de filosofía en el Centro de Ciencia, Tecnología y Sociedad de la Universidad de Chulalongkorn en Bangkok (Tailandia).