0
Steve Wozniak, cofundador de Appel, ha declarado recientemente, que la inteligencia artificial es la mayor amenaza para la existencia humana. Otras celebridades como Stephen Hawkings han hecho declaraciones en la misma línea. El advenimiento de la llamada singularidad, -a saber, la superación de la inteligencia humana por la inteligencia artificial- definida por Kurzweil, no tiene porqué ser una fatalidad, puede ser una elección. La responsabilidad digital consiste en decidir como queremos vivir en el mundo digital, respetando las normas sociales más justas y convenientes para toda la humanidad.


La tecnología no es una fatalidad. Puede ser el motor de la economía, pero la finalidad social viene antes. Lo más importante es saber si es conveniente y si estamos preparados. La prohibición o la moratoria tecnológica es algo completamente necesario cuando nos adentramos en opciones técnicas, que ponen en riesgo nuestra propia vida o el deseable equilibrio social.

Este podría ser el caso de la singularidad. Primero de todo, debemos estar preparados para convivir con ella, así como también necesitamos disponer de los mecanismos idóneos para garantizar su completa sumisión a la especie humana. Con lo cual, lo más razonable sería determinar una moratoria hasta que el desafío este estudiado y controlado en profundidad. En cualquier caso, siempre habrá que estar preparado para una prohibición o para un obligada disminución de sus potencialidades. La singularidad no sólo es reversible, si no que debe convertirse en una decisión social. Hay inventos, que por su impacto social, no pueden ser sometidos a las puras leyes del mercado, sino al consenso social, basado en el parecer de los expertos.

La ética digital, como ética individual universal, la responsabilidad digital social, como ética colectiva o normativa social, y finalmente, la responsabilidad digital corporativa, como conjunto de políticas para la excelencia en la gobernanza digital de la empresa, son nuevos marcos conceptuales para adaptar los retos tecnológicos, a lo que la sociedad puede aceptar de una manera sana, sostenible y justa.

Esta semana un operario de una fábrica alemana de automóviles, ha muerto como resultado de la maniobra de un robot en una cadena de montaje. No se trata en ningún caso de una rebelión de las máquinas o de una venganza individual, ya que los robots están enjaulados y los humanos no tienen acceso mientras están funcionando. Parece que por alguna razón pendiente de discernir el operario se hallaba en el lado prohibido de la valla. Pero lo curioso, es que toda la prensa ha utilizado este trágico accidente, para volver hablar del debate de los robots inteligentes y su amenaza sobre una humanidad, por todos sabido, intelectualmente mediocre. A parte de las declaraciones de celebridades técnicas y científicas, hay muchas películas recientes que tratan el tema como: La singularidad está cerca, Her, Ex-Maquina, I's y más que vendrán. El tema preocupa y mucho. Especialmente en aquella vertiente de robots autónomos, que se están preparando para servir en los ejércitos, con capacidad de decidir si matan  o no y, por tanto, saltándose las reglas de la robótica de Asimov. Son los llamados robots asesinos (Killer Robots), los Terminators primigenios. Existe una asociación llamada Campaign to Stop Killer Robots dedicada a combatir este avance técnico.

Cuando delegamos nuestra capacidad humana de decidir a una máquina, abolimos nuestro libre albedrío y esto es un acto de extrema responsabilidad (o irresponsabilidad). A medida que avanza la digitalización con el Internet de las cosas, casi cada acto implica un dilema ético-filosófico. Y esto va ir e aumento. De hecho, la industria está ya incorporando en los algoritmos de la inteligencia artificial límites éticos, que han diseñado los expertos. Parece que los filósofos han encontrado un nuevo oficio. La industria automovilística está incorporando a expertos en ética para dilucidar estos debates. Con los coches autónomos (Driverless Cars), como el tan popular de Google, se debaten casos como si un coche debe tirar a su conductor por un barranco, para evitar atropellar a unos niños. Lo lógico por trágico que parezca, es que si uno compra un coche, pudiera configurarlo para que siempre salve al conductor, al propietario, pero quizás esa decisión no la puedan tomar los clientes en el futuro. Probablemente esa configuración la determinen las leyes. La ley será preventiva, será parte de un una algoritmo determinado por unos jueces. O quizás, para imitar lo que ocurre hoy en día sin robots, ante un dilema similar, el robot tire los dados, en definitiva que lo decida un generador de números aleatorios. Pero aunque la vida es un tómbola, a nadie le gusta sufrir las consecuencias de lo que se puede evitar. La robótica es un problema kantiano. Al igual que la estética trascendental nos dice que hay categorías, que parecen externas al ser humano, pero en realidad pertenecen a la sensibilidad a priori. La robótica, es decir, la inteligencia, es la algo propio de la esencia del ser humano. La singularidad es posible, porqué es una potencialidad humana, que de alguna manera ya existe hoy. Y al ser nuestra, es nuestra competencia decidir sobre ello. No someternos a ello, no dejarla procrear como la ira, es algo justo. La inteligencia artificial es una extensión de la humana, pero no tiene porqué ser beneficiosa, al igual que muchos otros artefactos creados por los humanos, como es el caso de las armas. Jugar a ser Dios, es peligroso. En todo caso, lo que no podemos hacer es no implicarnos en este debate.

Next
Entrada más reciente
Previous
This is the last post.

Publicar un comentario

 
Top