Empezamos con las 3 leyes básicas:
1.Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2.Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
3.Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.
(Para no caer en un error por tirar de la memoria he utilizado la Wikipedia para transcribirlas)
Teóricamente y desde un planteamiento poco profundo estas leyes no deberián fallar haciendo inviable un fallo del robot y por tanto el daño a un ser humano. Al ser los robots máquinas creadas por los humanos deben obedecer estas leys con las que se le programa, si por un casual la actuación del robot fuese errónea sus sistema se autodestruiria dejandolo inutilizado inmediatamente.
Aunque en teoría el sistemas deja al robot actuar primero, ya que se supone que no va a realizar ningún acto que sea contrariao a las leyes, que podrián definirse como la ética del robot, al igual que los humanos poseen la suya, la diferencia erradica en la capacidad humana para razonar y cambiar su ética a su antojo según su parecer, que en teoría los robots no tienen. Esto nos libra de un posible robot-asesino o degenerado por llamarlo de alguna manera.
Ahora si creemos haber entendido las leyes de la robótica, hay que plantear unos conflictos para ver su verdadera funcionalidad.
Supuesto 1. Un robot, ve un humano en peligro pero por alguna razón o salva al humano o se salva a él ¿Que hace?
Supuesto 2. Esta vez un robot recibe la orden de salvar al humano del anterior supuesto mientras que el humano en peligro le dice lo contrario, poniendo como razón para apoyar su orden la integridad física del robot.¿Cómo actua el robot?
Supuesto 3. Un asesino esta a punto de matar a otro humano y el robot lo ve, ¿Cómo actua el robot ?
Supuesto 4. Esta vez el asesino va a cabar con dos humanos a la vez, y no es viable ninguna acción para salvarlos que no sea acabar con la vida del asesino en cuestión.¿Que hace el robot?
Quizás el caso mas difícil sea el 4 pero por eso se posteó la ley 0 (Zeroth law) que es algo así como:
"Un robot no debe dañar a la humanidad, o por su inanición dejar que algo/alguien lo haga, hasta donde no entra en conflicto con la primera ley"
En mi opinión hay el robot tras procesar todas las acciones posibles atacaría al asesino y si acaba con su vida inmediatamente su sistema entraria en conflicto y quedaria inoperativo. Pero claro al igual que el resto del post la mayoria son opiniones o interpretaciones personales, si encontrais un fallo o demás se agradece que lo comenteis abajo.