Una interesante nota de El País echó luz sobre un debate en la industria automotriz en lo que será el futuro de los automóviles: la conducción autónoma.

De hecho, en ese momento, no es tecnológico, sino filosófico. ¿Cómo programar las decisiones que tomen los autos en situaciones de riesgo para la vida humana y que impliquen resolver un dilema moral? La nota reproducida a continuación ayuda a pensar la pregunta.

Cuenta la nota que los ejecutivos de la industria automovilística se encuentran en "terreno desconocido" respecto de cómo definir el accionar de las máquinas. Es por ello que reclutaron a especialistas en ética y a filósofos para que les ayuden a navegar por los matices que van del blanco al negro. Ford, General Motors, Audi, Renault y Toyota se han dirigido al Centro de Investigación en Automoción de la Universidad de Stanford, donde se están programando coches con el fin de que tomen decisiones éticas, y luego observar qué ocurre.

''Indudablemente, el tema está en el punto de mira'', afirma Chris Gerdes, director del laboratorio, que recientemente se reunió con los directores ejecutivos de Ford y General Motors para debatir la cuestión. ''Son conscientes de los problemas y los retos porque en la actualidad sus programadores tratan activamente de tomar esas decisiones''.

Los fabricantes de automóviles, además de Google, están gastando miles de millones en desarrollar coches sin conductor. Esta semana, Ford ha declarado que está llevando el desarrollo de coches autónomos del laboratorio de investigación a sus operaciones avanzadas de ingeniería. Este verano, Google proyecta poner en las carreteras de California “unos cuantos” coches autónomos que hayan pasado el examen de la pista de pruebas.

En materia tecnológica, los autos están más avanzados de lo que se cree. Según Boston Consulting Group, es posible que, dentro de una década, haya vehículos totalmente automatizados circulando por las carreteras públicas. Los coches serán una de las primeras máquinas autónomas que pondrán a prueba los límites del sentido común y la reacción en tiempo real.

''Pronostica el filósofo Patrick Lin, director del Grupo de Ética y Ciencias Emergentes de la Universidad Politécnica de California y consejero de fabricantes de automóviles. Son los primeros robots verdaderamente sociales que transitarán entre la gente''.

Los coches que conducen solos prometen anticipar y evitar los choques, lo que reducirá espectacularmente las 33.000 muertes anuales en las carreteras de Estados Unidos.

Pero seguirá habiendo accidentes. Y en esos momentos cabe la posibilidad de que el coche robot tenga que elegir el mal menor, como por ejemplo girar e invadir una acera llena de gente para evitar ser alcanzado por detrás por un camión a toda velocidad, o quedarse en el sitio y poner en peligro mortal al conductor, explica la nota de El País.

En definitiva la pregunta es si ¿las normas que gobiernan a los vehículos autónomos deberían dar prioridad al bien mayor –el número de vidas salvadas– y no dar valor a los individuos involucrados? ¿Deberían inspirarse en Asimov, cuya primera ley de la robótica dice que una máquina autónoma no puede causar daño a un ser humano, o debido a su inacción, permitir que le sea causado?