No es algo nuevo, la investigación en Inteligencia Artificial (IA) comenzó en la década de los 50 y ha sido un área que ha permanecido activa en cuanto a investigación e innovación desde entonces. Ahora, con el nuevo ChatGPT, el debate se ha reabierto sobre hasta qué punto la IA puede llegar a sustituir al cerebro humano. Hablamos de ello con Daniel Sánchez, CEO de Gammera Nest, director de PlayStation Talents y profesor de Industria del video juego en ESNE (Universidad Camilo José Cela).
Antes de entrar en materia, ¿cómo definiría la Inteligencia Artificial?
Podríamos decir que entendemos por Inteligencia artificial el estudio y desarrollo de sistemas informáticos capaces de realizar tareas que requieren inteligencia humana, como el aprendizaje, la resolución de problemas, la percepción, la comprensión del lenguaje natural, la toma de decisiones, etc.
¿Cómo ve el futuro a corto plazo respecto a los usos de la IA en nuestra sociedad?
Aún está “calando”poco a poco el uso de la IA para las tareas más comunes pero, no me cabe duda, de que será en el terreno académico/escolar en el que pronto veremos implementado su uso. Perdimos las enciclopedias por el uso de Google, en breve Google desaparecerá en pos de un sistema que te permite responder a preguntas de cualquier tipo elaborando un sistema de respuesta que imita a la escritura humana y es completamente personalizable. ¿Cuántos trabajos, papers o incluso tesis doctorales se van a hacer con IA sin que seamos conscientes realmente?
Por otro lado, ya se está aplicando a buscadores, a creación de arte 2D y 3D, retoque fotográfico y, en concreto en videojuego, a captura de movimientos, animación facial, etc.
La IA va a ser la gran revolución de nuestro tiempo, como ya han comentado personalidades en el campo de la tecnología como Bill Gates e incluso se plantean fechas para la llegada de la “singularidad” (que, en el entorno de la inteligencia artificial (IA) se refiere al momento en que la IA supera el control del hombre), algo que parecía tan lejano y tan de ciencia-ficción que ahora, cuando nos dicen que en el año 2030 puede ser nuestra realidad cotidiana.
Dentro del marco educativo se ha abierto un amplio debate ya en las escuelas públicas de Nueva York han prohibido el acceso al ChatGPT. ¿Cómo ves esta medida?
Durante mucho tiempo el ChatGPT y otros generadores de IA han sido ignorados y ahora que muchos vemos las posibilidades que nos ofrecen a la hora de realizar artículos o aportar conocimiento adicional, incluso ya pre-procesado dentro de las limitaciones que tienen aún este tipo de inteligencias, listo para ser utilizado como vía o camino de nuestra investigación o trabajos académicos, quieren prohibirlo.
Lo que se ha hecho en medios académicos finalmente, tras constatar que prohibir su uso era imposible, es ningunearla y considerar que sus referencias, al ser libres y no contrastadas por al academia, no son válidas. Sin embargo, dudo mucho que, al menos, los vínculos que te referencian al final de los artículos no hayan ayudado a muchos investigadores en sus tesis.
Mi recomendación es que, cuanto antes aprendamos a vivir con estos sistemas, mejor. Habrá que enseñar a usarlos, a definir su valor y hasta dónde pueden llegar, a exigir a los estudiantes y alumnos, aportar el valor crítico que aún no es posible que den estas IAs. En definitiva, a apoyarse en ellas, como hace años que nos apoyamos en los editores de textos, en los buscadores, y luego evaluar sobre lo que aporta la parte “humana” de esos trabajos. No eliminar su uso porque es imposible.
¿Qué soluciones propone?
La mejor solución es divulgar. Divulgar su uso, divulgar sus buenas prácticas, su utilidad y también sus defectos y aclarar los miedos que generan en aquellos que apenas se han asomado a este tipo de novedades, siempre con temor a lo desconocido. Este nuevo mundo que se nos abre es apasionante, muy diferente a todo lo que hemos visto en el pasado. Mucha gente habla de que se está acabando la era de la producción industrial y el capitalismo que comenzó con la Revolución Industrial (e incluso un poco antes ya se venía anticipando) y entramos en la Era de la Comunicación, donde el bien de intercambio ya no es físico, ya no existe como tal, es intangible pero eso no le resta valor, simplemente tiene otros códigos que hay que conocer para que no nos lleve por delante el cambio.
Lo que hay que evitar es la ignorancia. Si está pasando, enseñemos a vivir con ello, no a ignorarlo, prohibirlo o tratar de vivir ajenos a ello.
Se habla también del miedo en que podría interrumpir en las industrias creativas, perpetuar los sesgos y difundir información errónea. ¿Cuál es su conclusión como experto?
Eso siempre va a estar en el candelero sea de la forma que sea. También el miedo a que afecte a la propiedad intelectual, el único gran valor “imperecedero” que posee la obra de los artistas y creadores y del que ya tenemos algunos casos donde el uso de la IA ha infringido o se ha “inspirado” en obra existente, modificándola pero no lo suficiente como para que sea reconocible.
Creo, y esta es mi opinión que es inevitable que la IA, que aprende de nosotros, tenga el suficiente “espíritu crítico” para distinguir entre los sesgos y errores del ser humano y sus bondades y elegir correctamente. De hecho, creo recordar una noticia ya de 2017 donde decían que una IA se volvía racista y machista porque comenzó a asociar nombres femeninos a palabra relacionadas con tareas domésticas o cuestiones familiares. En realidad, lo que ocurrió es que muchos de los modelos de aprendizaje automático se entrenan a partir de datos humanos a gran escala y además aprenden utilizando a estadística, buscando la probabilidad que tiene cada palabra de estar junto a otras por lo que, en realidad, lo que hizo la IA en este caso, es repetir errores de nuestra conducta. Y tampoco creo que sea malo.
Eso nos pone “frente al espejo”, dejándonos ver cómo trasladamos nuestro inconsciente a otras mentes, aunque sean artificiales en este caso para evitarlo en un futuro. Hoy, en día, tan solo 5 años después, ya esto es mucho más limitado y autocorregible por la propia IA pero sigue siendo una materia compleja de dilucidar dado que saca sus propias conclusiones a partir de nuestra propia conducta.
¿Cree usted que Hal de Odisea en el espacio, está más cerca de lo que pensamos?
Aunque es cierto que actualmente, la inteligencia artificial (IA) ha avanzado significativamente en áreas como el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Sin embargo, todavía estamos lejos de tener una IA como el HAL de 2001, una IA que es capaz de tener conciencia de sí misma y tener una inteligencia y personalidad humana.
Hay que tener en cuenta que el HAL de 2001 es una representación ficticia de una IA avanzada en una película de ciencia ficción, mientras que la IA actual se basa en algoritmos matemáticos y estadísticos diseñados para realizar tareas específicas. Aunque la IA actual puede simular algunas habilidades humanas, como el reconocimiento de voz y el análisis de datos, todavía está lejos de tener conciencia de sí misma o una personalidad humana.
Además, la IA actual también tiene limitaciones importantes en cuanto a la capacidad de razonar, entender y aprender de forma autónoma, lo que se requiere para una IA como HAL. Aunque la IA está avanzando rápidamente, todavía hay muchos desafíos técnicos (aunque os recuerdo que ya en junio de 2022 el ingeniero de Google, Blake Lemoine, aseguraba que estaba trabajando con un sistema de chatbot que, según él, cobró conciencia) y éticos que deben ser abordados antes de que sea posible crear una IA con conciencia de sí misma y personalidad humana.
Y la pregunta del millón, ¿sustituirá la IA puestos de trabajo?
Es posible que la introducción de la inteligencia artificial y la automatización en algunos sectores laborales resulte en la pérdida de algunos puestos de trabajo. Sin embargo, también es probable que la IA cree nuevos puestos de trabajo y oportunidades económicas. Algunos expertos afirman que la IA podría complementar el trabajo humano en lugar de reemplazarlo por completo, permitiendo a las personas centrarse en tareas que requieren creatividad, empatía y capacidad de resolución de problemas complejos. En cualquier caso, es importante que la sociedad y los gobiernos aborden la introducción de la IA de manera responsable y equitativa, a fin de minimizar sus impactos negativos y maximizar sus beneficios positivos.
Y, que conste, que esto que acabo de poner, no solo lo pienso yo: es precisamente la respuesta que el propio chatGPT da a esa pregunta. ¿Será para que nos confiemos antes de que las IAs controlen nuestro mundo por completo?