13.11.09

Riobot 2016



Cuando Asimov, allá por 1942, escribía las tres Leyes de la Robotica lo hacía para evitar que un robot pudiese dañar a un humano. Las tres Leyes eran las siguientes:

1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Realmente, las premisas presentadas por Asimov (mucho antes que los robots fuesen una realidad) eran muy acertadas, y efectivamente protegían a los humanos de cualquier tipo de daño que fuese causado por estas maquinas.

Pero los tiempos cambian, los robots ya están entre nosotros, y parece que lo que hace furor es el robot armado para la guerra y no la “mucama cibernética” o el “trabajador robótico”. Eso volvió automáticamente obsoletas las Leyes que elucubro el escritor, ya que un combatiente robot que no dañe humanos es un contrasentido.

El ingeniero John S. Canning, del Naval Surface Warfare Centre (EE.UU.), ha dicho que se necesitan una serie de leyes que den más libertad a los robots sin que eso signifique tener “carta blanca” para cometer cualquier crimen. Menuda tarea.

Canning propone dotar a los robots de combate de total libertad cuando se enfrenta a un enemigo robótico (donde la violencia no seria un problema), y de algunas reglas más restrictivas cuando combate contra humanos. Incluso, dice que podría ser útil un operador humano para que decida por la maquina. “Este esquema permitiría a un robot apuntar a otro, y a un humano hacer lo mismo con un semejante”.

Entre los “autómatas” que tiene en mente Cannig figuran los misiles antitanque, sistemas de defensa automatizados, torpedos submarinos, etc.

El documento completo escrito por Canning se pueden encontrar algunos puntos inquietantes. Por ejemplo, seria valido para un robot (o sistema de combate automatizado) dispara al fusil que lleva un humano, y no necesitaría autorización para efectuar ese disparo. Su el soldado que lleva el fusil resultara herido o muerto, lo asumiría como un “daño colateral” y no plantearía ningún tipo de conflicto para el robot.

No sabemos cuando se llevaran a la práctica este tipo de ideas, pero confiamos en que falte mucho tiempo. Puede que para 2016 ya exista algún tipo de policía robótica... o no.