Inteligencia artificial Ética para máquinas

¿Qué hacer cuando la decisión está en manos de una máquina, por ejempo en el tránsito?
¿Qué hacer cuando la decisión está en manos de una máquina, por ejempo en el tránsito? | Foto (detalle): © RioPatuca Images – Fotolia.com

Con la digitalización, el hombre va delegando responsabilidades en dispositivos tecnológicos. ¿Qué decisiones pueden tomar las máquinas? ¿Y cómo enfrentamos las consecuencias? En Alemania, una comisión de ética se ocupa de estos temas.

Un conductor va tranquilo por la carretera, cuando de pronto aparece enfrente un auto que intenta adelantar a otro. El conductor tiene dos opciones: girar bruscamente el volante, salirse del camino y lanzar el vehículo a un campo donde juega un grupo de niños, o mantenerse en el carril con la esperanza de que el otro conductor lo evitará. Más allá de lo que haga, por la brevedad del tiempo no tomará una decisión consciente sino instintiva. A ningún tribunal de mundo se le ocurriría condenarlo.

Distinto sería si el conductor fuera un robot, si fuera uno de esos vehículos autónomos que desde hace años están en fase de prueba en Google o en Audi. Los veloces procesadores le darían tiempo a la computadora tiempo suficiente para decidir. Sin embargo, ya debe tener en su programación el algoritmo correspondiente. Ahora bien, ¿cómo se decide en semejante situación? ¿Y quién asume la responsabilidad?

Parámetros para algoritmos

Para aclarar estos puntos, el gobierno federal de Alemania creó en otoño de 2016 la llamada Comisión de Ética para la Conducción Autónoma. Bajo la presidencia del ex integrante del Tribunal Constitucional, Udo Di Fabio, una docena de científicos, especialistas en informática, ingenieros y filósofos indagan cuestiones vinculadas a la responsabilidad de las decisiones en la conducción autónoma y desarrollan juntos estándares que hasta ahora no existían. “Mientras en este campo no haya seguridad jurídica, ninguna empresa se atreverá a invertir en esta tecnología”, dice Armin Grunwald. El físico y filósofo es miembro de la comisión y además preside la Oficina de Evaluación Tecnológica del Parlamento alemán.

Con la conducción autónoma la sociedad se aventura en tierra desconocida El hombre delega la responsabilidad en la máquina que dirige el vehículo. “Estaremos a la altura de esta revolución en la movilidad solo si podemos establecer parámetros claros para los algoritmos”, dijo el Ministro de Transporte Alexander Dobrindt en la sesión inaugural de la comisión, en octubre de 2016. Conforme a las recomendaciones de la comisión, se dictará una ley que permita el funcionamiento de vehículos autónomos en la vía pública. La ley deberá explicitar las responsabilidades de la máquina y el hombre y brindar seguridad jurídica a los clientes, los conductores, a todos los involucrados en el tránsito y a los fabricantes de automóviles. Armin Grunwald está convencido de que a este primer paso hacia la equiparación de hombre y máquina seguirán otros. “Es tiempo de desarrollar una ética de la inteligencia artificial.”

La ciencia ficción ya hizo el trabajo preliminar

El trabajo preliminar ya lo realizó el bioquímico y escritor de ciencia ficción ruso-estadounidense Isaac Asimov. En 1942 publicó su relato Runaround, donde formuló sus famosas leyes de los robots. La primera dice que un robot no debe causarle daño a ningún ser humano ni por inacción permitir que esto suceda. Las leyes dos y tres dicen que los robots deben obedecer las órdenes de los humanos y proteger su existencia… en tanto esto no vaya en contra de la primera ley.

En 1983, paralelamente al desarrollo del primer instrumento bélico de funcionamiento autónomo, Asimov desarrolló la ley cero: “Un robot no debe causarle daño a un humano ni por inacción permitir que la humanidad sufra daño”. Una ley con trampas, pues las máquinas pueden tomarse grandes libertades: por ejemplo, matar a individuos humanos cuando son una amenaza para el bienestar de la humanidad.

Dilema insoluble

La Comisión de Ética para la Conducción Autónoma no debe hacer reflexiones de tan largo alcance. Debe analizar ante todo los riesgos de responsabilidad. Según el criterio actual, el que responde por el daño es siempre el poseedor: el amo responde por el perro, los padres por los hijos. Pero ¿qué pasa cuando un error de programación causa un daño? Sería responsabilidad del fabricante. Por eso se ha propuesto que el fabricante deba instalar en el auto una caja negra que guarde los datos de navegación. Así, en caso de accidente, se podrá determinar quién conducía, si el hombre o la computadora.

La comisión ya ha formulado algunas premisas fundamentales: el algoritmo de la computadora deberá optar por el daño material y no por el daño personal. Y no podrá clasificar a las personas por altura, edad o lo que fuera. En caso de accidentes menores, con daños de carrocería, no resulta muy difícil cumplir con esas condiciones. Pero otra es la situación ante un dilema crítico como el que se describió al inicio. ¿La vida de muchos ha de valer más que la de algunos?

También sobre este caso se debatió ampliamente en la Comisión de Ética, cuenta Armin Grunwald. Aquí no es posible imaginar una decisión basada en la ética. La vida humana jamás debe ponderarse en relación con otra vida humana. Esto ya lo dice el principio de igualdad incluido en la Declaración Universal de los Derechos del Hombre y en la Constitución Alemana. Para resolver técnicamente los fabricantes podrían instalar en el vehículo un generador aleatorio, que en ese tipo de situaciones tomaría la decisión. Pero, ¿quien querría viajar en ese auto?