¿Serán los robots con sentimientos más fáciles de hackear(nos)?

Veréis, no soy ningún experto en robótica, mis conocimientos de ingeniería y electrónica dejan bastante que desear, así que es posible que lo que suelte a partir de aquí no sean más que un gran conjunto de chorradas futuribles de ciencia-ficción.

Hace unos años un amigo y yo quisimos hacer un robot, pero no sabíamos ni por donde empezar ni qué queríamos que el bichejo hiciese, cuando empiezas a programar sabes que lo que hagas, ha de tener un fin. Hacer un programa que haga… Pues con los robots igual.

Ahora que los autómatas humanoides empiezan a no llamarnos tanto la atención, que los empezamos a asimilar fuera de películas del tipo Terminator, me cuestiono su fiabilidad.

Un autómata es una máquina diseñada para facilitar la vida a los humanos pero que requiere de la interacción de éstos, supuestamente un buen robot debería poder escoger, elegir qué acciones hacer en base a lo que esté programado y sus circunstancias. Kevin Mitnick nos enseñó que la forma más rápida y eficaz de obtener cualquier dato (en su caso, hackear) era preguntando por ese dato en persona. Porque una persona es más vulnerable que una máquina y cualquiera que tenga una palabrería ligera o sepa manejar los sentimientos de alguien podrá franquear la razón de éste último y aprovecharse de esta vulnerabilidad, un bug de carne y hueso, vaya. Todos hemos oído hablar de la ingeniería social, ¿no? Bueno, tal vez alguno se escape. Es que es un tema que siempre me ha apasionado.

A raíz de los avances en robótica (y dando por hecho que se cumplirán las tres leyes ficticias y que no serán expuestos a males lógicos como virus, troyanos, gusanos, etc) es fácil pensar que otorgar emociones a una máquina podría ayudar a los humanos, algo así como Tele-amigos (o Twitter), no tengo con quién hablar, pues me compro una Chobit.
Bueno, según la primera ley un robot nunca deberá dañar a un humano. Yo esto lo entiendo como algo físico, no moral, es decir, que su brazo con lanzallamas no se dispare jamás contra una abuelita cruzando la calle.Teniendo claro que lo que nos impulsa a hacer algo grandioso, romántico, crítico o totalmente estúpido en la mayoría de los casos son las emociones -ya que los humanos no estamos programados, disponemos de libre albedrío a no ser que Matrix diga lo contrario- también un robot podría.
Y como tal, un humanoide con sentimientos sería (recordemos los primeros párrafos) una máquina vulnerable. Por la misma regla, un robot suficientemente bien programado podría utilizar esas emociones para vulnerar a un humano y «hackearlo». Sí, resulta estúpido. Pero lo veo factible. No quiero decir que ahora mismo, que apenas pueden subir unos peldaños, podamos hacerlos llorar o que, al contrario, ellos nos hagan llorar a nosotros, o terminemos enamorándonos de sus circuitos, pero ¿y si un bandido al Bender style no está tan lejos?

Visto en: Paranoic bot.

Comentarios

12 respuestas a «Â¿Serán los robots con sentimientos más fáciles de hackear(nos)?»

  1. Avatar de WhisKiTo

    En una asignatura de segudo (Teoría de Autómatas y Lenguajes Formales) demostramos matemáticamente que un robot no puede llegar a tener inteligencia humana, al menos por los métodos que se están utilizando hoy en día (el método matemático se aplica a los métodos y algoritmos que se usan para generar inteligencia a los autómatas (robots).
     
    Es un mundo apasionante, pero enorme. A día de hoy, la robots con inteligencia humana (y como tal, capaces de controlar sentimientos humanos)… son imposibles.

  2. Avatar de Ellohir

    La primera ley impide que los robots hagan daño a los seres humanos. Daño de cualquier tipo. Y pueden hacer inferencias bastante buenas, jamás de los jamases podrían dar tu número de cuenta del banco porque saben para qué lo van a usar los que lo obtengan.
    En «Yo, robot» se cuentan un par de cosas así. Alguien que no ha leído ninguna Fundación no tiene mucho que aconsejar, pero a mí me gustó bastante.

  3. Avatar de Fran

    Como dice Ellohir en los libros de Asimov sobre robots se explica lo que tú comentas aquí, y al final acaba diciendo que la primera ley abarca todo (incluido los sentimientos de las personas), pero claro como tú dices es ciencia ficción.

  4. Avatar de Alex

    Yo creo que en (relativamente) poco tiempo habrá robots totalmente funcionales a la hora de entender y comunicarse con humanos. Esto no incluye que tengan emociones, eso es imposible y creo que si algo no comprende las emociones humanas no puede utilizarlas ni para hacer bien ni para hacer mal.

  5. Avatar de Alexliam

    No creo que esto llegue nunca, pero si así es yo me suicidaré.

  6. Avatar de El Tabernero

    Estoy de acuerdo en que no podrán tener inteligencia humana. Pero no me gusta descartar la idea de que tendrán una inteligencia capáz de soportar lo mismo que nosotros en cuanto a emociones. Interpretar, por ejemplo, que cuando alguien se muere es triste. Siguiendo ese razonamiento, veo viables las palabras del Geko.
    Ahora bien, yo no soy de ciencias y no se de robótica, por lo tanto puedo haber dicho una burrada.
    En fin, me voy a la ferretería, que hoy me llegan los brazos biónicos extensibles.

  7. Avatar de ElGekoNegro

    Joé, qué poco habéis tardado en desmontarme las hipótesis… xD

    Por cierto, Ellohir, con el número de cuenta únicamente no se consigue hacerte con el dinero, se necesita además el DNI (como objeto, no sólo el número y letra) del titular y encontrar a alguien realmente parecido que pueda extraer dinero sin la tarjeta. Lo más rápido (y fácil) es hacerse con el número de la tarjeta y su caducidad. Algo aprendí en CitiBank, pero no temáis.

  8. Avatar de Aeris

    Yo lo veo algo imposible, habiendo estudiado Inteligencia Artificial e imaginándome cómo habría que diseñar una mente humana. Habrá robots con los que se pueda hablar y te respondan, pero nada parecido a las emociones.

  9. Avatar de rehtse

    Yo es que no le termino de encontrar el norte a hacer que los robots sientan emociones, si las emociones hacen que nosotros funcionemos peor ya sea cuando estamos agilipollados (digo, enamorados) o cuando estamos tristes, para qué hacer que algo funcional tenga momentos de bajón, cuelgue… esto me recuerda a Windows, ejem…

  10. Avatar de Cosicu

    «no tengo con quién hablar, pues me compro una Chobit.» El termino correcto es persocon

  11. Avatar de oscar alex
    oscar alex

    los robots no pueden tener sentimientos porque fuera el alcance de la ciensia nunca podran pensar como nosotros. se mucho escribame oskar_alex6@hotmail.com

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *