ironman

ironman
foto de Flickr, autor angeloangelo

martes, 30 de septiembre de 2014

De los wearables al transhumanismo



Chris Dancy pasa por ser la persona más conectada del mundo. Todo empezó hace dos años cuando quería perder peso y empezó a instalarse sensores para entender lo que ocurría en su cuerpo. El año pasado se gastó 40.000 dólares en dispositivos conectados y no sale a la calle sin sus Google Glass, Galaxy Gear, Pebble watch, un par de smartphones de última generación y gadgets similares. Dancy un tipo peculiar, que ha acuñado el término "Big Mother" para referirse al hecho que es él quien tiene el control de la ingente información que generan los aparatos que lleva.

Amal Graafstra no se queda atrás aunque él ha pensado que la mejor manera de estar conectado es implantándose un chip en cada mano. Y no sólo eso sino que ha creado su propia empresa (con el elocuente nombre de Dangerous Things) para comercializar chips implantables bajo la piel. ¿Qué ventajas tienen esos chips subcutáneos? Permiten abrir puertas, cruzar las barreras del metro de Londres o arrancar una moto sin necesidad de llevar nada más encima y sin que lo perdamos o nos lo roben.

Foto del usuario de Flick christopher frier brown

El profesor Kevin Warwick ha llevado el tema un paso más allá. Dirige el proyecto Cyborg y se ha implantado un chip que está conectado a su sistema nervioso y que le permite, entre otras cosas, interactuar con un brazo robótico, un desarrollo que puede ser muy importante para personas con algún tipo de parálisis corporal. El profesor Warwick destaca que su cerebro fue capaz de adaptarse y en sólo seis semanas podía reconocer las señales que procedían de dicho brazo artificial.

Si la tecnología nos ha conducido hasta aquí, es posible pensar que el siguiente movimiento nos llevará hacia microchips con memoria instalados y conectados con el cerebro y con el mundo exterior a través de cualquier tecnología inalámbrica. Si eso fuera así, uniríamos la capacidad de pensar y crear del cerebro humano, con el acceso inmediato a prácticamente cualquier información vía internet (o a la almacenada localmente en la memoria del chip cuando no tuviéramos conectividad). También podríamos llegar a un resultado parecido con una prótesis interna para el oído que se pudiera conectar a internet.

Es decir, estas prótesis o implantes podrían mejorar ostensiblemente no sólo el cuerpo sino también la mente de quien las llevara y convertirle en una suerte de cíborg con unas capacidades muy por encima de la media. Las personas con más recursos tendrían más posibilidades para acceder a estos dispositivos y la brecha social se agrandaría. Pero ¿tiene sentido que personas sin ningún tipo de discapacidad se instalen aparatos que les mejoren su memoria o capacidad intelecual? ¿no les colocaría eso en mucha mejor situación en exámenes, oposiciones u otras pruebas de acceso? ¿podemos tunear nuestro cuerpo sin ningún límite ni control?


http://www.extremetech.com/wp-content/uploads/2014/08/electrx-darpa-implant-diagram.jpg
Ilustración de DARPA

He dejado para el final la noticia que más me ha llamado la atención. La Agencia de Proyectos de Investigación Avanzados de Defensa americana (DARPA por su siglas en inglés) acaba de anunciar el programa ElectRX, dotado con un presupuesto de 79 millones de dólares y cuyo objetivo es desarrollar pequeños dispositivos electrónicos que interactúen con el sistema nervioso y lo modulen, con la esperanza de curar enfermedades crónicas tanto psicológicas (depresión) como físicas (artritis). Esa técnica se conoce como neuromodulación pero, como se ha publicado en algunos medios, parece que el objetivo final del DARPA no es ese sino la neuroaugmentation, es decir el aumento de capacidad neuronal de los soldados para que se conviertan en super guerreros.

Bienvenidos al transhumanismo. En otro artículo analizaremos los (enormes) retos legales que plantea.


viernes, 26 de septiembre de 2014

Responsabilidad y robots. ¿Hace falta modificar el régimen actual?


Los temas de responsabilidad son uno de los más delicados para los abogados. En el caso de los contratos no siempre es fácil encontrar un equilibrio razonable respecto al nivel de obligaciones y penalizaciones que tiene que asumir cada parte. En cuanto a la responsabilidad extracontractual (torts en derecho anglosajón), es cierto que en España/Europa no llegamos al nivel de locura (perdón, litigiosidad) de EEUU, pero también se plantean numerosos conflictos.

Foto del usuario de Flickr Jeffrey

Por eso no es de extrañar que las cuestiones relativas a responsabilidad sean las que más atención reciban en la presentación de la profesora Lilian Edwards (@lilianedwards) sobre la regulación de los robots (páginas 24 y siguientes). Edwards plantea preguntas del tipo ¿qué pasa si un humanoide militar mata a un civil? ¿y si un robot dedicado a cuidar ancianos le indica que tome más pastillas de las que debería? ¿quién es responsable si un coche sin conductor es hackeado y atropella a un peatón? ¿y si un "robot sexual" aplica las preferencias de un usuario (ej. recibir azotes) a otro y le provoca daños? Muchos de estos casos no van a ocurrir en el corto plazo pero coincido con la profesora Edwards en que conviene empezar a pensar sobre ello.

En el régimen actual, lo primero que habría que determinar es si estamos ante un caso de responsabilidad contractual o extracontractual. Además habría que estudiar si ha existido negligencia en alguno de los intervinientes y valorar la aplicación al caso concreto de la normativa y jurisprudencia sobre protección de los consumidores. Edwards plantea en su presentación si tendría sentido crear una categoría especial de responsabilidad para ciertos casos en los que intervengan robots. 

Ryan Calo se acerca también a la cuestión de la responsabilidad desde una perspectiva diferente. En su trabajo académico de 2010 Open Robotics propone que se conceda un cierto grado de inmunidad a los fabricantes de plataformas robóticas abiertas (entendiendo por tales las que permiten la instalación de aplicaciones o programas de terceros) respecto al uso que los usuarios hagan de las mismas, de manera similar al régimen que existe para los intermediarios de internet. Calo afirma que el mundo de los estándares abiertos plantea definitivamente más retos jurídicos que el de las plataformas propietarias o propietarias pero también genera muchas más oportunidades para los desarrolladores, así como ventajas indudables para los usuarios.

En mi opinión, mientras los robots sean máquinas con autonomía limitada y escasa capacidad de razonar/tomar decisiones, no es necesario que modifiquemos el sistema legal de responsabilidad, al menos en España, porque el que tenemos actualmente sirve para dar respuesta a las situaciones planteadas. Sin embargo la inteligencia artificial es uno de los campos de mayor crecimiento y es posible que en unos años veamos ordenadores que puedan imitar el funcionamiento del cerebro humano y ser capaces pensar autónomamente. Si ese momento llega, no me cabe duda de que tendríamos que replantearnos los esquemas legales de la responsabilidad (y probablemente de casi todo lo demás).

lunes, 22 de septiembre de 2014

¿Pueden tener derechos los robots?

La pregunta suena absurda y la respuesta parece obvia: NO.

La abogada Kate Darling (@grok_) no lo tiene tan claro y desde hace meses lleva a cabo workshops para estudiar la interacción de personas con los llamados "robots sociales" (máquinas autónomas con forma humana/animal que se comunican e interactuan con las personas a un nivel emocional e incluso aprenden de ellas).

Foto del usuario de Flickr Travis Isaacs


El experimento que hace Kate es muy curioso: primero reparte entre la audiencia varios Pleos como el de la imagen y deja que la gente juegue con los pequeños dinosarios durante un rato. Luego les da cuchillos y artilugios similares y les pide que los destrocen, cosa que prácticamente nadie está dispuesto a hacer, lo cual es llamativo porque seguramente ninguno de ellos tendría ningún problema en tirar a la basura un modelo antiguo de coche teledirigido. 

¿Por qué ocurre eso? Quizás la explicación es que los robots sociales tienen forma humana o animal y pueden mostrar un comportamiento autónomo que los hace parecer "vivos" y ello provoca una reacción emocional en nosotros, como se ha demostrado en un estudio reciente.

Basándose en los resultados de tus experimentos, Darling propone llegar todavía más lejos y pone sobre la mesa la conveniencia de otorgar ciertos derechos a estos robots sociales, como se ha hecho en la legislación para prevenir el maltrato animal. Su razonamiento es interesante ¿cuál es la razón de ser de esta normativa? ¿se trata sólo de evitar su sufrimiento? Si así fuera ¿por qué se protege a los perros pero no a los insectos? Quizá no se trate tanto del maltrato hacia los animales sino de nuestra reacción emocial frente a ese acto de crueldad, concluye Kate para justificar su tesis. En mi opinión el planteamiento es cuestionable y no lo comparto porque podría llevar al absurdo de tener que atribuir derechos a cualquier máquina u objeto que nos suscite algún tipo de empatía.

De forma similar, Jincey Lumpkin plantea en una charla de TED el tema de derechos de los robots, en este caso desde la perspectiva sexual. La ponencia empieza con una pregunta interesante ¿cuándo un robot deja de ser una máquina y se convierte en "alguien"? para, inmediatamente, plantear otra cuestión más agresiva ¿puede un robot ser violado? Hay que aclarar que no se está refiriendo a muñecas hinchables más o menos sofisticadas sino a un humanoide llamado Roxxxy dotado de un cierto grado de inteligencia artificial que le permite tener conversaciones, responder al tacto y recordar tus gustos

¿Puede prestar su consentiemiento un humanoide de estas características? En el caso de que no tenga opción de negarse al acto sexual, Jincey sugiere que sería un supuesto parecido al de la esclavitud, que debería estar prohibido. Creo que de nuevo se están llevando las cosas al extremo y que para poder empezar a plantearse el otorgar algún tipo de personalidad a dichos robots, antes deberían demostrar un grado de autonomía y capacidad de razonamiento muy superior al que tienen ahora.


jueves, 18 de septiembre de 2014

Notas sobre la privacidad de drones y robots domésticos.


Foto del usuario de Flickr epSos.de


¿Qué es un robot? Estoy de acuerdo con la opinión de Gigaom de que es difícil de dar una respuesta precisa porque evoluciona constantemente. 

Margot Kaminski (@MargotKaminski) propone una definición interesante: es un software con cuerpo. Margot es una abogada y profesora de Yale, especializada en nuevas tecnologías que hace unos meses dió una charla en el Berkman Center for Internet and Society de Harvard sobre robots y privacidad

El estudio que da origen a la charla de Kaminski tiene por objeto la regulación de los drones, que es uno de los temas legales más polémicos actualmente en EEUU. Desde hace meses, miles de pequeños aviones no tripulados equipados con cámaras de grabación de foto/vídeo están invadiendo el cielo de San Francisco y otras ciudades y espacios abiertos. El regulador aeronáutico nacional (FAA) está siendo objeto de numerosas críticas por su retraso a la hora de aprobar una regulación adhoc, que no se espera hasta septiembre de 2015. Muchos Estados han considerado que se trata de un tema urgente y han aprobado sus propias normas sin esperar a conocer las directrices de dicha agencia. Lo curioso es que la FAA no tiene competencia ni experiencia en la regulación de cuestiones relativas a privacidad, que es es uno de los aspectos más controvertidos de los drones.

En cualquier caso, la problématica que genera el vuelo de drones en espacio abiertos estaría dentro de lo que Kaminski denomina "privacidad en público" y es de natureleza distinta a la que empezará a surgir cuando los hogares se llenen de robots domésticos tipo Paro o Asimo, cuya finalidad es cuidar de niños y ancianos o simplemente entretener y/o ayudar en las labores familiares. Otro ejemplo de robot similar sería Jibo, que puede realizar videollamadas, mostrar imágenes en su pantalla, reconocer caras y objetos, leer cuentos y hacer fotos cuando lo pidas. También actúa como asistente personal para recordarte tareas pendientes y aprende de tus gustos gracias a su algoritimo de inteligencia artificial.

Foto del usuario de Flickr Denise Cross Photography

Esa es la cara amable pero no podemos perder de vista la indudable pérdida de intimidad que supone tener una máquina sincronizada con tu móvil, conectada a internet y grabando (al menos potencialmente) todo lo que pasa en tu casa. Presumo que la información no se almacenará en el dispositivo sino en la nube. Al momento me surgen un buen número de preguntas: 

  • ¿qué datos van a tener y qué uso hará la empresa de esos datos? 
  • ¿se podrá acceder a ellos y borrarlos efectivamente? 
  • ¿cómo se va a configurar el aparato teniendo en cuenta que se trata de un dispositivo de uso familiar, que puede ser utilizado por menores de edad o ancianos? ¿cómo podemos estar seguros de que no se explota su espacial vulnerabilidad?
  • ¿tendrá un sistema operativo abierto que admita aplicaciones de terceros? 
  • ¿qué medidas de seguridad se van a implementar para impedir que sea hackeado? 
  • ¿habrá que informar a los amigos que entren en tu casa de que pueden ser grabados o fotografiados?
  •  ¿podrán ser utilizados como prueba válida en un juicio?

La privacy by design y el sentido común parecen más necesarios que nunca en este tipo de productos/servicios.

 

viernes, 12 de septiembre de 2014

Retos éticos y legales que plantea un futuro robótico

Me gusta Ryan Calo (@rcalo). Le sigo desde hace meses y me parece el abogado que mejor entiende el futuro que nos está esperando a la vuelta de la esquina. Otro día hablaré de alguno de sus brillantes trabajos académicos.

Foto del usuario de Flickr oskay


Hoy quiero comentar el foro en el que intervino hace unas semanas en la facultad de derecho de Berkeley junto a varios expertos para tratar los retos morales y legales que plantea la irrupción en la sociedad de robots de distintos tipos. Lamentablemente no tenemos el vídeo de la sesión pero sí se puede escuchar el audio aquí (una hora y media, en inglés).

En la sesión se abordaron algunos temas polémicos como por ejemplo si sería ético asignar robots con aspecto de niños a pedófilos, supondiendo que esa medida pudiera erradicar o disminuir el problema. Está demostrado que muchos pedófilos no están rehabilitados al salir de la cárcel y siguen suponiendo un problema para la sociedad. En esas circunstancias, ¿tiene sentido hacer una prueba piloto para ver si la medida puede ser efectiva?

El auge de los robots puede forzar al derecho penal a tener que replantearse cuestiones importantes como el concepto de mens rea o intencionalidad. Actus non facit reum nisi mens sit rea, reza el aforismo latino. La mente también tiene que ser culpable, es decir tiene que existir una intención de cometer el acto delictivo. Calo puso un interesante ejemplo a este respecto: Darius Kazemiha ha creado un sotware que hace compras aleatorias en Amazon. ¿Qué ocurriría si su programa informático compra algo que es ilegal en el Estado en el que vive, como por ejemplo los caramelos con alcohol en Massachusetts? ¿Sería culpable Darius? Probablemente no respondo yo, pero me temo que iba a tener que dar muchas explicaciones cuando el FBI llamara a su puerta.

Foto del usuario de Flickr Manish Prabhune

En el foro mencionado también se habló de Cupido, pero no del Dios del amor sino de la legalidad de máquinas como Chaotic Unmanned Personal Intercept Drone (CUPID), el dron que ha desarrollado la empresa Chaotic Moon y que sirve para patrullar zonas determinadas, identificar potenciales intrusos y dispararles un rayo paralizante. Desert Wolf, la empresa que comercializa Skunk Riot Control Copter ha optado por otra solución: un dron que dispara balas de plástico y lanza spray de pimienta a grandes aglomeraciones de personas difíciles de controlar, como por ejemplo una huelga violenta. Prefiero no imaginar  el potencial destructivo de esos aparatos en manos de milicias asesinas o gobiernos sin escrúpulos.