Buscar
Cerrar este cuadro de búsqueda.

Diario Digital

Lee la Edición de Hoy

Guía para el uso ético de la Inteligencia Artificial

Comparte esta noticia

Anuncios

Por: Rosa Rao C. y Rodrigo Molina S.

Docentes

IP-CFT Santo Tomás, sede Rancagua

La Inteligencia Artificial (IA) se ha convertido en una herramienta que tiene el potencial de transformar significativamente el desarrollo de la industria y las rutinas de la vida cotidiana. Paradójicamente, este enorme potencial también puede ser utilizado para usos indebidos; de modo que surge la necesidad de instalar discusiones y normativas para garantizar que este potencial sea utilizado en beneficio de la sociedad.

¿Qué es la inteligencia artificial?

Para entrar en el terreno ético de la IA es importante entender qué es y cómo funciona. En este sentido, la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO (2019) define la IA como “máquinas o sistemas capaces de imitar ciertas funcionalidades de la inteligencia humana”.

La IA se clasifica en varias categorías:

  • IA estrecha o débil: Está diseñada para realizar tareas específicas, como reconocimiento de voz o imágenes. Ejemplos incluyen asistentes virtuales como Siri o Alexa.
  • IA general o robusta: En desarrollo, en este tipo de IA una máquina tendría una inteligencia igual a la de los humanos; sería autoconsciente y tendría la capacidad de resolver problemas, aprender y planificar para el futuro.
  • Aprendizaje automático (Machine Learning): Implica el uso de algoritmos y técnicas para que las máquinas aprendan de los datos. Depende de la intervención humana, son los humanos quienes etiquetan datos para que el sistema aprenda.
  • Aprendizaje profundo (Deep Learning): Utiliza redes neuronales para modelar datos, no requiere intervención humana para procesar estos datos, lo que permite escalarlo de maneras más interesantes.

Es importante tener claridad sobre esta clasificación cuando hablamos de la ética de las IA porque cada tipo presenta diferentes desafíos y riesgos éticos. Por ejemplo, la IA estrecha puede implicar problemas de privacidad y sesgo en datos específicos; mientras que la IA general plantea aspectos sobre la autonomía, el impacto en el empleo y la toma de decisiones humanas.

En este sentido, nos centraremos en las preocupaciones y pautas éticas específicas para la IA generativa, Generative Pre-trained Transformer (GPT), que es un modelo de aprendizaje profundo capaz de generar contenido (texto, imágenes y voz) a partir de un proceso de entrenamiento previo de datos y la transformación de esos datos de forma coherente y similar al lenguaje humano.

Riesgos y cuestiones éticas clave

Para este artículo, se han tomado como referencia las directrices éticas sobre el uso de la inteligencia artificial (IA) y los datos en la educación y formación para los educadores de la Unión Europea (2022). Estas directrices destacan cuestiones éticas importantes como:

  • Uso, consentimiento y privacidad de los datos: La recopilación y uso de datos debe ser transparente y respetar la privacidad de los individuos. Es esencial obtener el consentimiento informado de los usuarios y proteger sus datos contra el mal uso.
  • Plagio en la IA generativa: La generación de contenido por parte de la IA plantea riesgos de plagio y requiere estrategias para citar y atribuir correctamente las fuentes.
  • Deepfakes y desinformación: Los deepfakes son técnicas de IA utilizadas para crear o modificar videos, imágenes y audio, de manera que parezcan auténticos, pero son falsos. Esto puede llevar a la desinformación y a la suplantación de identidad.
  • Suplantación de identidad: La IA puede ser utilizada para crear identidades falsas, lo que puede tener implicaciones legales y éticas graves.

En la actualidad, un caso que ha disparado alertas en muchos países del mundo, incluido Chile, es el uso de tecnologías de reconocimiento biométrico. Se trata del escaneo del iris a cambio de una compensación económica, un fenómeno que está en escalada. Una de las principales preocupaciones éticas relacionadas con el escaneo del iris es el uso, consentimiento y privacidad de los datos biométricos recopilados. Es fundamental tener en cuenta que los datos que se recopilan a partir del escaneo del iris son altamente sensibles y únicos para cada persona, y si bien pueden tener aplicaciones legítimas en áreas como la seguridad y la identificación, su uso indiscriminado y sin el consentimiento informado de los usuarios, podría conducir a graves violaciones de la privacidad e incluso podrían ser utilizados para fines no deseados o maliciosos, como la vigilancia masiva o la discriminación.

Anuncios

Otro aspecto a considerar es la transparencia y la explicabilidad de estos sistemas de reconocimiento biométrico. Muchos de ellos funcionan como cajas negras, lo que dificulta comprender cómo se procesan los datos y cómo se toman las decisiones. Los usuarios tienen derecho a saber cómo se están utilizando sus datos biométricos y para qué fines específicos.

Criterios para el uso ético de la IA

Para abordar los riesgos asociados con el uso de la IA, se presentan un conjunto de criterios clasificados en dos perspectivas: la social y la personal. Además, estos criterios han sido inspirados por las directrices éticas de la Unión Europea y la experiencia propia en el uso de la IA:

  1. Perspectiva social: se refiere al enfoque que aborda los aspectos éticos y prácticos relacionados con el uso de la IA desde un nivel más amplio que abarca el impacto social, las políticas y las regulaciones institucionales:
  2. Privacidad: Esto implica asegurar que los datos personales sean tratados de manera confidencial, ética y conforme a las leyes de protección de datos (UE, 2022).
  3. Transparencia: implica la apertura y claridad en el funcionamiento de los sistemas de IA, incluyendo la capacidad de rastrear cómo se obtienen los resultados (trazabilidad), explicar las decisiones (explicabilidad) y garantizar que la información sea comprensible y accesible para todos los involucrados (comunicar) (UE, 2022).
  4. Diversidad, no discriminación y equidad: se debe garantizar la accesibilidad, el diseño universal, la prevención de sesgos injustos y la participación de todas las partes interesadas, para facilitar su uso sin importar la edad, el género, las capacidades o las características de las personas. (UE, 2022)
  5. Solidez técnica y seguridad: se refiere a la protección general de los sistemas y datos, así como, a la necesidad de garantizar resultados correctos y confiables (UE, 2022).
  6. Marcos regulatorios y normas éticas: Desarrollar regulaciones a nivel institucional, nacional e internacional para guiar el uso responsable de la IA.
  • Perspectiva personal: se centra en las personas y sus acciones individuales con respecto al uso de la inteligencia artificial:
  • Referenciar fuentes: Es necesario atribuir correctamente el contenido extraído de la IA, siguiendo las normas establecidas. Las normas APA (séptima edición), por ejemplo, sugieren que se debe indicar el prompt (pregunta o comentario) y las respuestas obtenidas.
  • Uso responsable y crítico: El contenido generado por la IA puede ser valioso para el aprendizaje; sin embargo, es importante no depender exclusivamente de ésta. Se debe fomentar una actitud crítica y reflexiva, evaluando la información de manera cuidadosa y considerando múltiples perspectivas antes de sacar conclusiones.
  • Comprobar la información: Verificar siempre la información generada por la IA para asegurarse de su exactitud y relevancia, incluyendo la autoridad, objetividad, actualidad, y calidad de la información. Es vital que la información proporcionada por la IA sea fiable y relevante. Los usuarios deben evaluar la responsabilidad del sitio, confirmar la información en múltiples fuentes, y asegurar que la información sea actual y correctamente escrita.
  • Utilizar herramientas de comprobación y corrección: Emplear herramientas de verificación y detección de plagio como: GPTZero y Duplichecker. Además, se puede emplear ChatGPT para generar y validar contenido, así como, Quillbot para corregir la ortografía. Estas herramientas permiten la revisión y mejora de la calidad de los textos.

La IA tiene un enorme potencial para mejorar nuestras vidas, pero su aprovechamiento depende de nuestra responsabilidad y honestidad. Debemos ser conscientes de los sesgos, proteger la privacidad, asegurar la transparencia y garantizar que la IA beneficie a toda la sociedad sin causar daño. La ética en la IA no es solo una opción, sino una necesidad para el desarrollo sostenible y equitativo de la tecnología.

Este compromiso ético en la IA debe ser continuo, desde la ideación hasta la mejora final, enfatizando la ética en cada etapa: explorar con responsabilidad, proteger y transparentar datos, refinar las ideas, desarrollar, verificar y mejorar continuamente los resultados.

Anuncios
Anuncios
Anuncios
Anuncios
Anuncios