El pasado miércoles 26 de abril, se llevó a cabo en el auditorio de la Universidad Católica de Oriente el evento, “El poder de la Inteligencia Artificial”, apoyado por el periódico EL RIONEGRERO.

Aprovechamos el espacio al finalizar, para conversar con el Doctor (PhD) en Sociología de la Ciencia, Carlos Hugo Sierra, Profesor de Sociología de la Universidad del País Vasco (UPV-EHU) y tuvimos la oportunidad de formularle un par preguntas respecto al tema de I.A. que está despertando tanto interés actualmente. 

Doctor, desde su respectiva área de conocimiento, ¿Cómo se articulan sus saberes con la Inteligencia artificial?

R: Bueno, hay que decir que no sólo me aproximo desde la sociología, sino que trabajo desde la epistemología. Entonces, ¿Qué planteo o cómo se podría aproximar? Pues evidentemente, primeramente, haciendo una afirmación que de alguna manera rechaza ciertos mitos en torno a la tecnología, que la tecnología es neutra o la tecnología es abstracta, cuando no lo es. 

La tecnología, a lo largo de todas las etapas de la historia de Occidente, o a escala mundial, descansa en contextos socioculturales determinados. 

Por lo tanto, en la cultura ya hay un direccionamiento previo desde el principio, desde la fase de diseño del hecho tecnológico. Esa es una primera forma de aproximarnos desde el punto de vista sociológico. 

Y la segunda sería las consecuencias del hecho tecnológico. Por ejemplo, en el campo de la inteligencia artificial se están generando ondas transformaciones en nuestras sociedades contemporáneas o por lo menos se anuncian hondas transformaciones en nuestras sociedades contemporáneas. Y esas transformaciones no solo afectan al campo de la economía. Se dice que se va a ver una pérdida de 300 millones de puestos laborales, de puestos de trabajo. Sino que afecta al ámbito político y también al ámbito ético. Y ahí, por supuesto, los profesionales del campo de la sociología, de la antropología, tienen una importancia. Y un protagonismo decisivo, porque debemos gestionar cómo se avanza desde el punto de vista tecnológico. 

En esa orden de ideas ¿se podría hablar de un papel ético desde la inteligencia artificial?

R: No, todavía lo que podríamos estar hablando es de que se necesita una regulación ética. Porque en torno al desarrollo tecnológico también hay una idea del mundo, una perspectiva, y también una serie de valores adheridos a cada modelo de desarrollo tecnológico. Entonces, ¿Qué es lo que están planteando esta nueva carta con los 1.300 expertos? Que es necesario regular éticamente la tecnología, y especialmente la inteligencia artificial. 

La Unión Europea ha dado pasos, pero todavía tímidos respecto a la necesidad de regular la inteligencia artificial. Por ejemplo, hay autores dentro de la filosofía de la tecnología que hablan de la necesidad de establecer una tecnoética sobre la tecnología en general, no solo la inteligencia artificial, basada en principios, que pueden ser el principio de precaución. ¿Qué significa eso? Que cuando una tecnología o un avance tecnológico, no sepamos las consecuencias, de manera clara, si pueden ser negativas para la sociedad. Debemos parar su desarrollo. Ese es el primer principio ético. 

El segundo es el principio de autonomía. ¿Qué significa eso? Que la tecnología debe garantizar la autonomía y la dignidad de los seres humanos. 

El tercer principio ético importante sería la distribución justa de acceso a ese tipo de tecnologías. Porque la propia tecnología, el avance tecnológico contemporáneo todavía no ha demostrado que cierre las brechas de desigualdad social existentes. Al contrario, si vemos el desarrollo de Internet vemos que el mapa de usuarios de Internet refleja también el mapa del hambre. Es un común calco del mapa de hambre. Debemos garantizar que tengamos un acceso equitativo a este tipo de tecnologías. Hay una serie de principios generales éticos que ya se están desarrollando y que son muy importantes tenerlos en cuenta a la hora de valorar el fenómeno del avance de la tecnología.

Doctor, considera que la inteligencia artificial puede llegar a ser un elemento emancipador de los ismos doctrinales; socialismo, catolicismo, capitalismo, todas estas doctrinas que en la sociedad actual enmarcan al hombre en un pensamiento.

R: Pues no sabría decir lo que sí entiendo que el modelo de desarrollo de la Inteligencia Artificial se desarrolló en un contexto de globalización. Entonces, claro, la globalización implica unas lógicas que van más allá de planteamientos más locales o ideologías que se han ajustado al Estado-nación moderno, desde el siglo XIX al siglo XX. 

En ese sentido, entiendo que hay una propuesta, un modelo de planteamiento globalizador en base a desarrollos tecnológicos como la Inteligencia Artificial. Pero es muy importante tener en cuenta que también las tecnologías se resignifican por parte de las audiencias y las sociedades. Y esa resignificación descansa en contextos socioculturales concretos. Entonces, yo lo que veo son lógicas contrapuestas. Hay un intento de descontextualizar, a partir de este tipo de tecnologías, los entornos culturales e incluso políticos, Y luego hay otra tendencia que trata que quizá no es la hegemónica, que trata de resignificar todas esas herramientas tecnológicas en base a los parámetros culturales propios. La otra interpretación, si eso supone de alguna manera socavar estos ismos, yo todavía lo interpreto como una especulación. Una especulación futurista. Para eso hay muchos autores de ciencia ficción. Uno que me gusta mucho, que es Stanley, que ha hablado de toda esta serie de cosas a escala planetaria y ciertas lógicas globalizadoras. Pero, en cualquier caso, todavía es ciencia ficción o especulación prospectiva.