SANTIAGO BILINKIS: “LA EMOCIÓN TAMBIÉN PUEDE SER EMULADA”

Información General

Santiago Bilinkis es emprendedor y tecnólogo, autor de ‘Guía para Sobrevivir al Presente’, entre otros proyectos.

En diálogo con ‘El último grito’ por Radio Provincia, se refirió a la inteligencia artificial: “Es tratar de crear una máquina que pueda realizar cosas que los humanos hacemos a través del pensamiento” que “no es lo mismo que una máquina que piensa”.

Escuchá la entrevista completa: 






Explicó que se originó con Alan Turing en el marco de la II Guerra Mundial cuando, junto a otros matemáticos, le encomendaron encontrar “la manera de descifrar los mensajes encriptados de los nazis a través de un sistema. Así se da cuenta de que con la mente humana no alcanza. Ese fue el germen de la inteligencia artificial, pero en los siguientes 70 años prácticamente no hubo avances”.

Sin embargo, “hace 10 años inventamos las redes neuronales que son computadoras que evocan la estructura del cerebro humano” y “en los últimos dos años tomaron al mundo por asalto”, indicó.

En esa línea, el entrevistado afirmó que “consideramos que la máquina es inteligente cuando no podemos determinar si estamos chateando con una persona o con una máquina”. Seguido, agregó que “considerarla inteligente o no es una decisión arbitraria. Lo más difícil es qué le pediremos a una máquina para reconocerla como un ser sintiente”.

Según Bilinkis, “la emoción también puede ser emulada. Creo que no hay magia en el cerebro humano: la conciencia, la inteligencia y la memoria son fenómenos increíbles, pero dentro de las posibilidades de la naturaleza”.

“Para bien o para mal en los últimos 30 años entendimos bien cómo funciona la psiquis humanas”, señaló el tecnólogo, al tiempo que se explayó respecto de los usos que se le puede dar a la inteligencia artificial incluso en las campañas electorales.

Consultado sobre si es optimista o pesimista sobre el desarrollo de la inteligencia artificial, sostuvo: «Cuando profundizás en el tema aparece el paralelismo con las bombas atómicas. No fue una gran idea haber creado artefactos con ese nivel destructivo. La inteligencia artificial tiene riesgos parecidos, como el uso de humanos contra humanos o que el proceso se descontrole. Se podría generar un daño colosal a la humanidad. Eso no quiere decir que estemos condenados».

«Estamos creando entes que pueden tomar decisiones. No falta mucho para que la tasa de interés sea decidida por la inteligencia artificial y no por un ser humano. La última es el poder militar. Corea del Sur tiene toda su frontera militarizada con robots, no con seres humanos», advirtió. 

Por último, dijo que es preciso «que la gente conozca lo que estas herramientas puedan ofrecer» porque tendrán un gran impacto en el mundo laboral. 

(RP)

Si querés seguir informado podés seguirnos en las cuentas en nuestras redes sociales en Facebook y Twitter o suscribirte en Google News.