Los peligros inherentes a la gestión humana del Big Data
Al final el Big Data/Smart Data y sus algoritmos están desarrollados, implementados y evaluados por humanos. Los resultados del Big Data deben tener sentido para los humanos y deben ser accionables. El ser humano, ya no es quizás el protagonista, pero es una parte de este tipo de sistemas. Al final, los patrones, que se utilizan son desarrollados por humanos y podrán monitorizarlos en tiempo real. Un problema adicional lo tenemos cuando estos patrones son decididos por sistemas de inteligencia artificial, pero de esto hablaremos luego.
Attali en su estudio de prospectiva Breve historia del futuro, nos ilustra que si casi todo lo que le pasa a un ser individuo, puede ser trazado, almacenado y analizado, toda conducta puede ser predecible. De tal manera, como aparece en la película Minority Report, con la policía, que puede predecir los delitos, Attali afirma que las empresas de seguros tendrán un inmenso poder, ya que sólo harán pólizas, a aquellos que sigan patrones bajos en riesgo. De esta manera, las empresas de seguros de manera preventiva y coercitiva, conseguirán regular la conducta de los ciudadanos.
Aquí se han empezado a desarrollar algunos derechos, como el derecho de transparencia para saber, exactamente, que se monitoriza y bajo que indicadores se deciden las políticas del sistema. El ciudadano debe proteger su intimidad y debe saber en todo momento, a que reglas está jugando. También el derecho a no ser monitorizado, en determinadas cuestiones personales, se convierte en esencial. De todas maneras, la tecnología y su uso avanzan con mayor rapidez, que el establecimiento de los derechos sociales digitales.
La maldad algorítmica natural y el libre albedrío
La maldad es algo natural. La perversión de los objetivos éticos, en virtud del propio beneficio, es algo implícito en el comportamiento instrumental de los seres humanos. Eso no quiere decir, que tengamos, que ser completamente fatalistas. El bien es posible, pero requiere un esfuerzo, de disciplina y de honestidad. El algoritmo dice lo que es relevante para ti, sustituye tu capacidad de juicio y te libera de la responsabilidad, pero eso es incompatible con el auténtico ejercicio de libre albedrío humano. En el caso del algoritmo hay una sustitución de la libertad individual y en el caso de la Inteligencia Artificial, existe una completa suplantación de todas las capacidades humanas.
Conseguir introducir la ética en los sistemas, que van a gestionar nuestras vidas futuras, es una lucha desigual, porqué la tecnología es intencional, no es neutra.
Big Data y la fundamentación de una Ética Algoritmica
La solución para los algoritmos utilizados en el Big Data reside en una ética algorítmica. No sólo tenemos, que tener el derecho de transparencia, en cuanto a que y como se monitoriza, sino cuales son las condiciones de exclusión de un servicio. Si un seguro médico monitoriza el colesterol, hay que saber, por cuanto tiempo sin remisión podría considerarse un motivo de incremento de la póliza e incluso de su exclusión. Pero no sólo eso, si no que en el momento de realizar una póliza ante el estudio del histórico de datos, tenemos que saber como predice el algoritmo, para asegurar, que habría un riesgo elevado de enfermedad, entendiendo, que en muchos casos los principios sobre los que se determina una terapéutica o un diagnóstico pueden no ser definitivos. La ética algorítmica reclama el derecho a la no predictibilidad en determinadas materias. Hay temas, que pueden mantenerse según los dictados el mercado y otros, según unos límites regulatorios o auto-regulatorios de la industria, pero en general, los derechos deben establecerse por Ley. Sin embargo, nada de esto ocurrirá sin que la sociedad digital se organice, lo reclame y lo consiga. Es un imperativo ético digital conseguir la neutralidad algorítmica.
Si la presión normativa es elevada y las consecuencias de los sistemas algorítmicos segregan a segmentos de la población, nos encontraremos inevitablemente con la
objeción de conciencia algoritmica. Movimientos de la población, que desearan vivir al margen de los sistemas predictivos y coercitivos. Ya está pasando con las redes sociales, que son el producto de los contenidos aportados por los miembros de la red, sin embargo un algoritmo completamente opaco y cambiante, es el que decide lo que aparece en tu muro. Mucho más preocupante es el funcionamiento de los mercados financieros, donde los llamados
algorthimic trading alcanzan ya casi el 90% de todas las transacciones. También dentro de poco el reclutamiento, así como las entrevistas de personal serán hechas por algoritmos.
En definitiva, lo que se exige para la ética algorítmica es:
1) Transparencia: Los usuarios deben saber a que algoritmos son sometidos, con que alcance y con que finalidad. Los algoritmos deberían o ser de código abierto y tener una descripción de su contendio como en los alimentos.
2) Notificación: Los usuarios deben saber, que datos personales son utilizados en los algoritmos y poder cambiarlos. La protección de datos interior a los algoritmos.
3) Desactivación: El panic button, aunque pueda implicar la terminación del servicio
4) Configuración ética: Poder poner filtros de contenido y reglas éticas particulares
En el ejemplo de los coches autónomos, se dan los casos más interesantes para la ética algorítmica. Cuando existen casos indecidibles éticos, como en el caso en que va haber un accidente en el cual con toda probabilidad va haber muertos, ¿cómo habría que decidir? ¿que siempre sobreviva el conductor?, o ¿primero mujeres y niños? o ¿situar ante todo la excepción tan americana, que si se ve involucrado el Presidente del Gobierno, debe siempre sobrevivir? Nadie es más importante que nadie para una ética universal. Esto va más allá del conductor o del fabricante de automóviles. Mi solución para estos casos no va a gustar, pero yo introduciría el factor natural, que es la aleatoriedad. No puede haber reglas, que decidan ciertas excepciones éticas indecidibles.
Inteligencia artificial y la fundamentación de una Ética Semántica
Por lo que respecta a la Inteligencia Artificial el caso se complica. Una de las funcionalidades fundamentales como el autoaprendizaje o la generación autónoma de reglas, determina que no puede haber reglas fijas. Si las hay ponemos un límite al aprendizaje y si no las hay, no podemos en definitiva, poner límites estables y funcionales a su comportamiento. Esto significa, que un motor ético del tipo algorítmico, aquí no podría funcionar. Google está trabajando en una especie de "panic button", que detiene la máquinas, en el caso que sea un robot. ¿Pero si resulta que en vez de un robot, es un ordenador que regula el tráfico aéreo? Entonces lo del panic button no procede.
La complejidad reside en que hay que introducirse a regular y normalizar en el contenido del conocimiento siempre diferente del programa. Y la única manera de hacerlo es mediante la semántica. Sólo la semántica puede entender lo que han aprendido las máquinas y actualizar dinámicamente la ética a sus nuevos conocimientos. Aquí no pueden haber unos axiomas éticos permanentes como en la ética algorítmica. Aquí es necesario un motor ético capaz de interpretar la situación en su contexto y adaptar la norma ética dinámicamente. Necesita entender y ser capaz de evitar ser engañado. Por ejemplo, si el sistema aprende, que se aplica una norma ética bajo una serie de reglas y en un contexto bien determinado, y además como consecuencia esto perjudica la posibilidad misma de aprendizaje de la máquina, por suspender las capacidades del software inteligente, probablemente intentará evitar la autolimitación exógena como resolución de un problema mas, engañando. Esto solo podría evitarse con un contra-motor ético también inteligente, pero que pueda mantener un rango de reglas superior.
Proponemos una sencilla ecuación para determinar comparativamente la importancia de las reglas éticas en superiores e inferiores:
e = índice de relevancia ética de una norma (supremacía)
n = norma (comportamiento a seguir -el bien-, medido como probabilidad -dificultad- de persistir en él)
d = daños potenciales (perjuicios -el mal-, medidos como probabilidad de que ocurra el peor caso)
u = universalidad (máximo de casos positivos, o séa, generalización, medida como probabilidad)
Ejemplo: relevancia ética del frenado ante peatón general
n = 1
d = 0,3
u = 0,9
e = 3
Podría usarse también un sistema como el
Elo Ranking para Humanos vs Máquinas Inteligentes. En el momento, que un sistema inteligente es capaz de ganar al ser humano, como ha sucedido en el ajedrez o concursos tipo
Jeopardy en virtud de las máquinas de
IBM, debe darse la posibilidad de limitar, desactivar, o incluso realizar una moratoria sobre éste. El sometimiento a un sistema superinteligente superior al mejor humano, debe ser siempre optativo, para usuarios y consumidores. Esto puede ser completamente proteccionista, pero es eso o aceptar que nuestra etapa
posthumana radicará en nuestra
extinción física y el paso de nuestros conocimientos a la información de los sistemas superinteligentes. La sociedad debe ser capaz de limitar o regular éticamente los sistemas superinteligentes o aceptar su extinción, no como un fatalismo o una entrega suicida, sino como el paso a una dimensión superior, lo cual nos parece inevitable en el largo plazo.
Tanto la
Etica Algoritmica como la
Etica Semántica deben ser consideradas ramas de la
Ética Digital englobada a su vez, dentro de la
Responsabilidad Digital. Estamos aún en la infancia de estas disciplinas. El debate sólo ha hecho que empezar y la conciencia colectiva está lejos de entender en el lío que está metida. Esperemos que gracias a ellas podamos convivir con las máquinas y que no nos conviertan en sus baterías.