Ética e Inteligencia artificial ¿Por qué es tan importante?

Tigo | 24 de agosto, 2020

Ética e Inteligencia artificial ¿Por qué es tan importante?

Comparte

¿Por qué es tan importante la ética en temas de Inteligencia Artificial? ¿Cómo le afectan a usted las aplicaciones inteligentes? ¿Conoce las ventajas y desventajas de los aplicativos de inteligencia artificial que funcionan en sus dispositivos móviles? ¿Sabe cuáles implicaciones tienen las nuevas tecnologías en la vida humana? ¿Tienen limites éticos los desarrollos de Inteligencia Artificial? ¿Cuáles son los valores y principios morales que rigen el desarrollo de productos de IA? ¿Qué intereses tienen los empresarios que invierten en IA?

Los avances en materia de inteligencia artificial enfrentan al mundo al dilema de la ética y los valores. Es inocente e incauto pensar que no existen intereses creados en este tipo de desarrollos. Los humanos realizamos gran parte de nuestras actividades siguiendo motivaciones personales, poniendo en práctica los valores con los que nos identificamos, los que rigen nuestro día a día.

Al desarrollar tecnología basada en IA es importante que sea supervisada por humanos competentes, probos moralmente, personas que sean capaces de imponer límites para evitar conductas abusivas. ¿Quién da fe de que este proceso se haga de forma regular? Para un humano con valores nada fuertes, sucumbir a conductas que violen la ética es simple. Sucede mucho en campos poco conocidos por las masas o cuando son muy pocas las personas especializadas en el rubro.

Ya sea de forma directa o indirectamente, todo desarrollo de inteligencia artificial reflejará los valores, juicios previos, la intencionalidad y la carga de condicionamientos culturales que posee quien desarrolla o crea productos. Es justamente el motivo principal por el que naciones y organizaciones alzan su voz para pedir una legislación ética que regule la inteligencia artificial que, poco a poco, se va colando en la vida diaria y a futuro cercano, será parte de todo lo que hacemos.

La gran mayoría de la población mundial desconoce las implicaciones éticas en las que se incurre al diseñar un producto con Inteligencia Artificial capaz de realizar con precisión, y casi a la perfección, actividades que para las personas es imposible. Más allá de la implicación de los datos y preservar la privacidad de los usuarios, existen áreas menos conocidas que pueden prestarse para manipulaciones y sistematizar conductas inapropiadas sin que los usuarios finales se den cuenta.

Aunque en América Latina no existe una legislación clara sobre el tema ya Europa ha dado pasos en esa dirección con un documento y directrices claras para la inteligencia artificial confiable.

El documento regentado por La Comisión Europea contiene siete puntos para que el desarrollo de la inteligencia artificial (IA) en el territorio comunitario se haga de forma ética y beneficiosa para la sociedad.

Repasemos el marco general para una IA confiable:

  • Legal – respetando todas las leyes y regulaciones aplicables.
  • Ética – respetando principios y valores éticos.
  • Robusta – tanto desde una perspectiva técnica como teniendo en cuenta su entorno social.

Las directrices que establece el documento se engloban en siete requisitos clave que los sistemas de IA deben cumplir para ser considerados confiables, a saber:

  1. Privacidad y control de datos: además de garantizar el pleno respeto de la privacidad y la protección de datos, también deben garantizarse mecanismos adecuados de control de datos, teniendo en cuenta la calidad e integridad de los datos y garantizando el acceso legítimo a los datos.
  2. Organismo humano y supervisión: los sistemas de AI deben empoderar a los seres humanos, permitiéndoles tomar decisiones informadas y promover sus derechos fundamentales. Al mismo tiempo, es necesario garantizar mecanismos de supervisión adecuados que se puedan lograr a través de enfoques de persona en el ciclo, persona con el lazo y persona con el comando.
  3. Robustez y seguridad técnicas: los sistemas de AI deben ser resistentes y seguros. Deben estar seguros, garantizar un plan de recuperación en caso de que algo salga mal, además de ser precisos, confiables y reproducibles. Esa es la única manera de garantizar que también se puedan minimizar y prevenir los daños no intencionados.
  4. Transparencia: los datos, el sistema y los modelos de negocio de AI deben ser transparentes: los mecanismos de trazabilidad pueden ayudar a lograr esto. Además, los sistemas de AI y sus decisiones deben explicarse de una manera adaptada a los interesados en cuestión. Los seres humanos deben ser conscientes de que están interactuando con un sistema de IA, y deben ser informados de las capacidades y limitaciones del sistema.
  5. Diversidad, no discriminación y equidad: debe evitarse el sesgo injusto, ya que podría tener múltiples implicaciones negativas, desde la marginación de los grupos vulnerables hasta la exacerbación del prejuicio y la discriminación. Fomentando la diversidad los sistemas de IA deben ser accesibles para todos, independientemente de cualquier discapacidad, e involucrar a las partes interesadas relevantes a lo largo de todo su círculo vital.
  6. Bienestar social y ambiental: los sistemas de AI deben beneficiar a todos los seres humanos, incluidas las generaciones futuras. Por lo tanto, debe garantizarse que sean sostenibles y respetuosos con el medio ambiente. Además, deben tener en cuenta el entorno, incluidos otros seres vivos, y su impacto social y debe considerarse cuidadosamente.
  7. Responsabilidad: deben establecerse mecanismos para garantizar la responsabilidad y la rendición de cuentas de los sistemas de AI y sus resultados. La capacidad de auditoría, que permite la evaluación de algoritmos, datos y procesos de diseño, juega un papel clave, especialmente en aplicaciones críticas. Además, debe garantizarse una reparación adecuada y accesible.

Cumplir estos siete requisitos establece una normativa que en principio ayudará con límites que hoy no tienen los desarrollos de IA. Cabe destacar que luchar contra sesgos es parte de los retos a los que se enfrenta la ética frente a la inteligencia artificial, solo con valores fuertes es posible tratar de establecer balance.

Con el tiempo se espera que la inteligencia artificial nos haga la vida más fácil por lo que adaptarla a la sociedad es materia pendiente que sigue siendo motivo de análisis constante. ¿Cuán ética considera usted que debe ser la inteligencia artificial?

Comparte

Comentarios