La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

Osapiens ESG europeo

¿Es peligroso ChatGPT?

El primer impacto real que tuvimos en España de las imágenes creadas con Inteligencia Artificial (IA) fue el spot publicitario de Cruzcampo en el que aparecía una revivida Lola Flores. Pero lo cierto es que la IA ha tenido una gran evolución desde que en 2016 comenzaran a usarse algoritmos implementados en redes complejas neuronales como el deep learning, el Big Data y la combinación de ambas mediante el Big Data Analyst. El desarrollo de esta tecnología ha supuesto una considerable mejora en la realización de muchas tareas, contribuyendo al progreso de forma muy positiva.

Pero la IA también puede usarse con fines fraudulentos, como fueron los casos denunciados en Canadá en marzo de 2023 por Ruth Card, una mujer de 73 años entregó 3.000 dólares tras recibir una llamada con la voz clonada de su nieto Brandon, que le pedía dinero para pagar su fianza tras haber sido arrestado; y por los padres de Benjamin Perkin, que recibieron la llamada de su supuesto abogado para que pagaran 21.000 dólares debido a que su hijo habría matado a un diplomático norteamericano en un accidente de tráfico, poniendo al teléfono a la voz clonada del joven para convencerles.

Y es que el desarrollo de la IA se muestra imparable. En efecto, recientemente han dado la vuelta al mundo las fotografías fake del Papa Francisco con un plumas blanco, diseñada por un usuario de Reddit; del expresidente de Estados Unidos Donald Trump, forcejeando con la policía, creada por Eliot Higgings, uno de los fundadores de Bellingcat, con motivo de su comparecencia judicial por el presunto soborno a la actriz porno Stormy Daniels para que no desvelara sus relaciones; y del presidente ruso Vladímir Putin arrodillándose ante el presidente chino Xi Jinping tras conocerse su supuesta intención de negociar el plan de paz para Ucrania propuesto por China; que han logrado generar mucha confusión debido a su gran realismo y su capacidad para servir de soporte a los clickbaits.

Esta es la razón por la que el pasado mes de marzo de 2023 más de mil expertos de todas las disciplinas y nacionalidades firmaron una carta publicada por el Future of Life Institute, en la que reclaman seis meses de carencia en el desarrollo de IA, por el peligro para la Humanidad que acarrea el vertiginoso progreso que se está produciendo sin ningún control. Los riesgos inmediatos que detectan son la competencia para las personas en el ámbito laboral, así como ser un instrumento eficaz para las fake news. Dato curioso es que uno de los firmantes es Elon Musk, dueño de Twitter y fundador de OpenAI, creadora de ChatGPT.

Respecto a las iniciativas para regular la IA, en el ámbito europeo el artículo 22 del Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (GDPR) establece medidas para respetar el derecho de los usuarios a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar. Por su parte, en el Reino Unido el Information Commissioner’s Office (ICO) publicó en 2020 la guía “Explaining decisions made with AI”. En Asia, en abril de 2023 Japón ha publicado su Libro Blanco sobre IA, que supone un importante viraje normativo, ya que hasta ahora eran partidarios del uso de soft law, sin el establecimiento de normas obligatorias.

En Estados Unidos, el National Institute of Standards and Technology publicó en septiembre de 2021 el informe «Four Principles of Explainable Artificial Intelligence”, donde se propusieron los cuatro principios que debería cumplir la IA con la finalidad de garantizar la máxima de la explicabilidad algorítmica de las decisiones de la IA: Explicación (Explanation), Relevancia (Meaningful), (Explanation Accuracy) y Límites del conocimiento (Knowledge Limits). Asimismo, en 2022 se promulgó la Algorithmic Accountability Act, que actualizó su predecesora de 2019, por la que se estableció la obligación de las empresas de evaluar el impacto de los sistemas de IA que utilizan y venden, e introducen medidas de transparencia para que los consumidores puedan tomar decisiones informadas.

En España, la primera norma en esta materia fue la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación, que legisla el uso de la IA por las Administraciones Públicas y las empresas en su artículo 23, con el objetivo de promover la igualdad de trato y no discriminación en los mecanismos de toma de decisión automatizados en el marco de la Estrategia Nacional de Inteligencia Artificial de noviembre de 2020, de la Carta de Derechos Digitales de julio de 2021 y de las iniciativas europeas en torno a la IA; favoreciendo que los algoritmos tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente.

Y en este contexto ChatGPT se sitúa en el centro de la polémica, tras la aparición de noticias como la del hombre belga de 30 años, padre de dos hijos y con un buen empleo, que se suicidó en abril de 2023 tras semanas chateando sobre la emergencia climática con “Eliza”, un chatbot basado en la tecnología GPT-J; o la de la demanda por difamación contra OpenAI de Brian Hood, alcalde de la ciudad australiana de Hepburn Shire, debido a las afirmaciones falsas realizadas por ChatGPT sobre que fue condenado a 30 meses de prisión en 2011 por sobornar a funcionarios extranjeros en relación con una filial del Banco de la Reserva de Australia en 2000. Por si no fuera poco, se hacen otros reproches a ChatGPT, como que necesitó consumir 700.000 litros de agua para el entrenamiento de GPT-3.

ChatGPT ha provocado que salten todas las alarmas en las Agencias de Protección de Datos de los Estados de la UE

Pero ¿qué es ChatGPT? Es un sistema de chat desarrollado por la empresa OpenAI, con más de 175 millones de parámetros, basado en un modelo de lenguaje por IA llamado GPT-3 (aunque ya se está trabajando en la versión GPT-4), capaz de aprender y mantener conversaciones de forma coloquial sobre cualquier tema con información precisa, lo que complica distinguir sus respuestas de las que hubiera podido dar un ser humano, pudiendo incluso responder verbalmente activando la función de voz para comunicarse con él. Aunque China no quiere quedarse atrás, el chatbot llamado Ernie Bot, desarrollado por Baidu, parece que aún no está preparado para competir con ChatGPT, según quedó evidenciado en su primera demostración realizada en marzo de 2023, que se limitó a una presentación pregrabada que no cumplió con las expectativas y que provocó el desplome de las acciones de Baidu en la Bolsa de Hong Kong.

Y ChatGPT ha provocado que salten todas las alarmas en las Agencias de Protección de Datos de los Estados de la UE. Así, el primer país en bloquear ChatGPT fue Italia en marzo de 2023, haciendo uso de la facultad conferida por el artículo 58-2-f) del GDPR, por no respetar la legislación sobre datos personales y no disponer de un sistema para verificar la edad de los usuarios menores de edad. Otros países como Francia, Irlanda y Alemania también han iniciado investigaciones en este sentido, así como la AEPD, que en abril de 2023 ha incoado de oficio actuaciones de investigación y ha solicitado al European Data Protection Board que se adopten acciones armonizadas y coordinadas a nivel europeo.

En conclusión, parece innegable que es necesario que se desarrolle una regulación legal y ética que establezca los límites que deben respetar los sistemas de IA, máxime cuando ya hay voces que alertan sobre que las grandes redes neuronales de aprendizaje automático podrían haber alcanzado una forma limitada de consciencia, como advirtieron en febrero de 2022 Ilya Sutskever, cofundador de OpenAI junto a Elon Musk y Sam Altman y Tamay Besiroglu, del Instituto de Tecnología de Massachusetts.

Por Javier López, socio de Écija

Deja un comentario

Scroll al inicio