Los computadores irrumpieron en nuestras vidas, como herramientas imprescindibles, antes de pasar a ser artilugios de gran consumo, a finales de los años 80 y durante los años 90 del pasado siglo. Durante un corto espacio de tiempo tuvimos la impresión de que se trataba de una tecnología que podríamos, si no controlar, al menos comprender. No fue así.
Pronto supimos de la existencia de los microprocesadores que gobernaban el conjunto y que eran auténticas cajas negras, al menos para nosotros. Lenguajes de alto nivel, intérpretes y compiladores y, en última instancia, aplicaciones elaboradas para resolver los más diversos problemas, nos alejaron cada vez más de los arcanos de las máquinas y nos vimos compelidos a tratar, sólo, con la superficie de aquellos extraordinarios aparatos.
Así, como cualquier otra herramienta cuya utilidad estuviera fuera de duda, los computadores pasaron a formar parte de la vida cotidiana sin que fuera necesario hacerse demasiadas preguntas sobre su forma de funcionamiento. Después de todo, la gente ha utilizado muchos años el botijo sin necesidad de elucubrar sobre la porosidad de la cerámica o las propiedades endotérmicas de la evaporación del agua. La miniaturización y la llegada de los teléfonos listos, smartphones para los que no hablan español, generalizó el uso de las computadoras sin que la gente supiera, ni le interesara, lo que había detrás.
Con el tiempo hemos desarrollado una dependencia casi absoluta de estos dispositivos, hasta el extremo de que la simple amenaza de problemas, hipotéticos, como el efecto 2000, o reales, como la pérdida o confiscación del móvil, generan algo muy parecido al pánico. Y por si esa dependencia, que ya es un hecho, no fuera suficiente, en los últimos años se ha puesto de moda el término ‘digitalización’ como panacea universal para resolver los problemas de gestión y funcionamiento de empresas e instituciones y, sobre todo, para acabar con los últimos restos de intervención humana, en los pocos procesos analógicos que aún la requieren.
Y así llegamos al final, por ahora, de este proceso: conseguir que las máquinas se comporten de manera ‘inteligente’, algo que el homo sapiens lleva años intentando sin demasiado éxito. La búsqueda de una inteligencia ‘artificial’ no es algo reciente. En su forma actual se remonta a los años 50 del pasado siglo y, si ahora está teniendo tanto éxito, a la hora de captar la atención del público, es por los impresionantes resultados logrados gracias a la aplicación de la fuerza bruta: capacidad de proceso y velocidad, potencia y diseño de los sistemas de computación y redes neuronales y nuevas técnicas de aprendizaje profundo sobre ingentes masas de datos.
Todo ello desarrollado, claro, en centros de investigación estadounidenses o, en todo caso, muy lejos, y no sólo físicamente, de las granjas de ordenadores con las que nuestros gobiernos, de todos los ámbitos y colores, están tan entusiasmados.
Como las cadenas de bloques, la biotecnología, las crisis de todo tipo o la sacralización de la mediocridad, la IA ha llegado para quedarse. Contribuirá a dar forma al futuro y no se limitará a conducir automóviles, generar vídeos a partir de texto, resolver problemas o redactar ensayos para el colegio. El modelo creado y distribuido por la empresa OpenAI, uno entre muchos, tiene más de 100 millones de usuarios con los que está completando su entrenamiento. Muchos son usuarios gratuitos, al menos en la versión básica, pero solo aparentemente. Ya es sabido que todo tiene, finalmente, un precio.