Si además quieres enviarnos un Artículo para el Blog y redes sociales, pulsa el siguiente botón:
Mas o menos es asi: si un programador diseña un programa autónomo capaz de tomar decisiones y "puede o puede que no" cometa actos ilegales...
¿Cual es su responsabilidad?
El tema es delicado, porque no puede hacerse un simil con otros diseños. Si haces un sistema mecánico debes hacerlo SEGURO por ley, pero las condiciones a las que se ha de enfrentar son predecibles. Pero una pieza de software que tome decisiones es totalmente impredecible...
Es parecido al tema del coche autónomo: ¿debe poner en peligro a los ocupantes para salvar de un peligro a los viandantes?
En sistemas críticos o que puedan causar lesiones existen normativas que se han de cumplir para poder poner un producto en la calle (al menos en Europa), esas normativas incluyen, como mínimo, seguridad eléctrica, EMC (emisiones e inmunidad electromagnética), y pruebas funcionales.
A partir de aquí, en sistemas muy críticos o con muchas variables también debe haber un operador humano que tome decisiones o que pueda tomar el control en un momento dado (generalmente se pone una gran seta roja sobre un fondo amarillo para desconectar totalmente el sistema).
S2
Ranganok Schahzaman