COLUMNA

Inteligencia Artificial, ¿responsable?

Inteligencia Artificial, ¿responsable?

Desde hace unos pocos meses atrás los humanos contamos con el apoyo abierto de la Inteligencia Artificial [IA] como demostración de un nuevo salto exponencial de la tecnología, que de por sí, hace años que evoluciona siguiendo ese tipo de curva [exponencial].

Veníamos de experimentar el metaVerso, que en apariencia no resultó demasiado seductor para gran parte de la comunidad para pasar a tener a disposición varias versiones de IA en formato abierto porque así, a medida que las utilizamos, aprenden y mejoran.

En un primer lugar nos encontramos con la posibilidad de preguntarle todo lo que nos interese saber [confundiéndola con un motor de búsqueda más potente que los actuales] hasta que descubrimos que le podemos pedir que haga por nosotros desarrollos que suelen ser complejos cuando los llevamos a cabo sin el aporte de tecnología IA.

Si sabemos cómo pedir podremos tener una tesis resuelta, un paper, un discurso o lo que deseemos sin la necesidad de estar -o no- preparados para lograrlo sin la intervención de IA.

Esto disparó las alarmas en los centros educativos, en la comunidad científica y en todo aquel que prefiere confiar en personas que se hacen cargo de sus producciones.

El impacto de la imagen

Luego llegó la posibilidad de pedir imágenes creadas por IA bajo nuestras indicaciones diluyendo los límites para plasmar nuestra creatividad.

Es entonces cuando, en el momento en que el mundo estaba pendiente del arresto de Donald Trump -con todo lo que implica un exPresidente de los EEUU arrestado- encontramos en las Redes Sociales [principalmente en Twitter] fotografías del momento exacto de la detención de Donald Trump -con la claridad y precisión a la que nos tienen acostumbrados los buenos fotógrafos de prensa. Y con la reacción que podíamos imaginar de parte de Donald Trump si fuera arrestado: huyendo de la policía a toda velocidad, arrastrando a los policías mientras estos intentan ponerle las esposas y versiones del espectáculo al que Trump acostumbró al mundo.

¡¿Arrestaron a Trump?! Una rápida visita a medios locales e internacionales, sin dejar de lado los principales de los EEUU no dicen nada al respecto. Extraño. De verdad, extraño.

Tenemos imágenes claras y precisas por un lado y vacío informativo por el otro, ¿cómo se entiende esto? Las Redes Sociales son perfectas para develar estos misterios. Al poco tiempo se conoce que las imágenes son tan claras como falsas; tan reales como solo la IA puede lograr.

La capacidad de creación de imágenes reales, pero falsas, de la IA se confirma cuando vemos al Papa Francisco luciendo una campera blanca enorme del estilo de las que podría llevar puesta Rihanna o jugadores estrella de un equipo de fútbol, pero nunca un Sumo Pontífice.

Hacemos como con los robots

Si la IA está aprendiendo y ya es capaz de lograr estos resultados cuesta imaginar cuándo llegaremos a ser nosotros los que aparezcamos en imágenes que nos muestran con toda claridad haciendo lo que nunca hicimos ni haríamos.

¿Será este el inicio del futuro distópico, o solo un paso más en la evolución asistida por tecnología?

Si la IA nos permite hacer “trampa” creando lo que no somos capaces de crear o mostrando con certeza lo que en realidad no ocurre vamos a tener muchos más problemas de los que estamos entrenados para gestionar.

Creo que es pertinente preguntarse si es apropiado contar con algún tipo de regulación para el uso de la IA; en especial luego de conocer la noticia del despido del Comité de Ética y Sociedad por parte de Microsoft [Microsoft contaba con ese Comité para cumplir con su compromiso de desarrollar productos y experiencias de IA de manera segura y responsable pero, decidió despedirlos a todos -relocalizarlos, en apariencia- debido a la necesidad de poner los avances de IA en manos de los clientes a muy alta velocidad].

Frente a esta postura de algunas empresas seguramente no sea mala idea; pero las regulaciones implican burocracia y la burocracia suele ser asesina del desarrollo y de la creatividad.

¿Y si actuamos como lo hicimos con los Robots? Con ellos ocurrió algo similar, al presentarse como un avance ventajoso -virtualmente sin límites- pero con un potencial de daño con probabilidades altas de ser reales.

A los robots se los limitó en base a las “Tres leyes de la robótica” basadas en la pluma de Isaac Asimov: Primera Ley: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño. Segunda Ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley. Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Quizás no se trate de leyes pero, me atrevo a sugerir que el futuro sería mucho mejor si a la IA se le impone una especie de “Declaración de autoría”. ¿En qué consiste una declaración semejante?

En que si un alumno presenta una tesis “sospechosa”, podamos “mostrársela a la IA para que ella nos confirme o niegue su autoría; y contemos con esta declaración para rechazarla. Que si alguien nos quiere extorsionar con una fotografía nuestra haciendo lo que nunca hicimos -ni haríamos- lo pudiéramos chequear con IA para que declare, o no, su autoría. Quedando de esa forma libre de estafas, o en evidencia por lo que sí hicimos.

Esta “Declaración de Autoría” solo requiere de parte de la IA un sistema de doble entrada y una memoria protegida. Algo muy simple en terreno virtual.

Si esto, o algo similar, se pusieran en práctica tendríamos un nuevo motor para facilitar el desarrollo de la humanidad y, cuando surjan documentos o imágenes insólitas podremos festejar la ocurrencia sin consecuencias indeseables.

Fernando Solari

Esta es mi opinión, pero estamos en una comunidad que se enriquece con el diálogo, y aquí abajo tenemos un cuadro de diálogo abierto para intercambiar ideas, ¿te sumás? ¿Compartís tu opinión? ¿Tu punto de vista? ¡Gracias por adelantado! Abrazo

Enviadme un correo electrónico cuando las personas hayan dejado sus comentarios –

¡Tienes que ser miembro de Empresability: Comunidad Profesional de Responsabilidad Social para agregar comentarios!

Join Empresability: Comunidad Profesional de Responsabilidad Social