Veréis, no soy ningún experto en robótica, mis conocimientos de ingenierÃa y electrónica dejan bastante que desear, asà que es posible que lo que suelte a partir de aquà no sean más que un gran conjunto de chorradas futuribles de ciencia-ficción.
Hace unos años un amigo y yo quisimos hacer un robot, pero no sabÃamos ni por donde empezar ni qué querÃamos que el bichejo hiciese, cuando empiezas a programar sabes que lo que hagas, ha de tener un fin. Hacer un programa que haga… Pues con los robots igual.
Ahora que los autómatas humanoides empiezan a no llamarnos tanto la atención, que los empezamos a asimilar fuera de pelÃculas del tipo Terminator, me cuestiono su fiabilidad.
Un autómata es una máquina diseñada para facilitar la vida a los humanos pero que requiere de la interacción de éstos, supuestamente un buen robot deberÃa poder escoger, elegir qué acciones hacer en base a lo que esté programado y sus circunstancias. Kevin Mitnick nos enseñó que la forma más rápida y eficaz de obtener cualquier dato (en su caso, hackear) era preguntando por ese dato en persona. Porque una persona es más vulnerable que una máquina y cualquiera que tenga una palabrerÃa ligera o sepa manejar los sentimientos de alguien podrá franquear la razón de éste último y aprovecharse de esta vulnerabilidad, un bug de carne y hueso, vaya. Todos hemos oÃdo hablar de la ingenierÃa social, ¿no? Bueno, tal vez alguno se escape. Es que es un tema que siempre me ha apasionado.
A raÃz de los avances en robótica (y dando por hecho que se cumplirán las tres leyes ficticias y que no serán expuestos a males lógicos como virus, troyanos, gusanos, etc) es fácil pensar que otorgar emociones a una máquina podrÃa ayudar a los humanos, algo asà como Tele-amigos (o Twitter), no tengo con quién hablar, pues me compro una Chobit.
Bueno, según la primera ley un robot nunca deberá dañar a un humano. Yo esto lo entiendo como algo fÃsico, no moral, es decir, que su brazo con lanzallamas no se dispare jamás contra una abuelita cruzando la calle.Teniendo claro que lo que nos impulsa a hacer algo grandioso, romántico, crÃtico o totalmente estúpido en la mayorÃa de los casos son las emociones -ya que los humanos no estamos programados, disponemos de libre albedrÃo a no ser que Matrix diga lo contrario- también un robot podrÃa.
Y como tal, un humanoide con sentimientos serÃa (recordemos los primeros párrafos) una máquina vulnerable. Por la misma regla, un robot suficientemente bien programado podrÃa utilizar esas emociones para vulnerar a un humano y «hackearlo». SÃ, resulta estúpido. Pero lo veo factible. No quiero decir que ahora mismo, que apenas pueden subir unos peldaños, podamos hacerlos llorar o que, al contrario, ellos nos hagan llorar a nosotros, o terminemos enamorándonos de sus circuitos, pero ¿y si un bandido al Bender style no está tan lejos?
Visto en: Paranoic bot.
12 respuestas a «Â¿Serán los robots con sentimientos más fáciles de hackear(nos)?»
En una asignatura de segudo (TeorÃa de Autómatas y Lenguajes Formales) demostramos matemáticamente que un robot no puede llegar a tener inteligencia humana, al menos por los métodos que se están utilizando hoy en dÃa (el método matemático se aplica a los métodos y algoritmos que se usan para generar inteligencia a los autómatas (robots).
Â
Es un mundo apasionante, pero enorme. A dÃa de hoy, la robots con inteligencia humana (y como tal, capaces de controlar sentimientos humanos)… son imposibles.
La primera ley impide que los robots hagan daño a los seres humanos. Daño de cualquier tipo. Y pueden hacer inferencias bastante buenas, jamás de los jamases podrÃan dar tu número de cuenta del banco porque saben para qué lo van a usar los que lo obtengan.
En «Yo, robot» se cuentan un par de cosas asÃ. Alguien que no ha leÃdo ninguna Fundación no tiene mucho que aconsejar, pero a mà me gustó bastante.
Como dice Ellohir en los libros de Asimov sobre robots se explica lo que tú comentas aquÃ, y al final acaba diciendo que la primera ley abarca todo (incluido los sentimientos de las personas), pero claro como tú dices es ciencia ficción.
Yo creo que en (relativamente) poco tiempo habrá robots totalmente funcionales a la hora de entender y comunicarse con humanos. Esto no incluye que tengan emociones, eso es imposible y creo que si algo no comprende las emociones humanas no puede utilizarlas ni para hacer bien ni para hacer mal.
No creo que esto llegue nunca, pero si asà es yo me suicidaré.
Estoy de acuerdo en que no podrán tener inteligencia humana. Pero no me gusta descartar la idea de que tendrán una inteligencia capáz de soportar lo mismo que nosotros en cuanto a emociones. Interpretar, por ejemplo, que cuando alguien se muere es triste. Siguiendo ese razonamiento, veo viables las palabras del Geko.
Ahora bien, yo no soy de ciencias y no se de robótica, por lo tanto puedo haber dicho una burrada.
En fin, me voy a la ferreterÃa, que hoy me llegan los brazos biónicos extensibles.
Joé, qué poco habéis tardado en desmontarme las hipótesis… xD
Por cierto, Ellohir, con el número de cuenta únicamente no se consigue hacerte con el dinero, se necesita además el DNI (como objeto, no sólo el número y letra) del titular y encontrar a alguien realmente parecido que pueda extraer dinero sin la tarjeta. Lo más rápido (y fácil) es hacerse con el número de la tarjeta y su caducidad. Algo aprendà en CitiBank, pero no temáis.
Yo lo veo algo imposible, habiendo estudiado Inteligencia Artificial e imaginándome cómo habrÃa que diseñar una mente humana. Habrá robots con los que se pueda hablar y te respondan, pero nada parecido a las emociones.
Yo es que no le termino de encontrar el norte a hacer que los robots sientan emociones, si las emociones hacen que nosotros funcionemos peor ya sea cuando estamos agilipollados (digo, enamorados) o cuando estamos tristes, para qué hacer que algo funcional tenga momentos de bajón, cuelgue… esto me recuerda a Windows, ejem…
Jajajaja
«no tengo con quién hablar, pues me compro una Chobit.» El termino correcto es persocon
los robots no pueden tener sentimientos porque fuera el alcance de la ciensia nunca podran pensar como nosotros. se mucho escribame oskar_alex6@hotmail.com