El error de personificar a la Inteligencia Artificial

El error de personificar a la Inteligencia Artificial

El término inteligencia artificial fue un éxito del marketing, pero por otra parte genera expectativas (y miedos) completamente exagerados. Es que a medida que uno interactúa con sistemas de IA, se pasa del asombro a la decepción en muy poco tiempo.

Se puede leer con asombro cómo Deepmind le ganó en Go al campeón del mundo, o que Alexa conteste cómo será el clima en Polonia mañana. Y también uno puede encontrarse con recomendaciones insólitas del logaritmo de Netflix o Linkedin, o errores que ningún humano medianamente inteligente haría nunca.

¿Dónde está ese desfasaje? Probablemente en el tiempo. Es muy probable que llegue el momento en el cual la inteligencia artificial realmente nos obligue a hacernos ciertas preguntas, y que pueda ser peligroso incluso hacer investigaciones en un camino u otro.  Pero ahora circulan miedos y teorías en muchas disciplinas. En la mayoría de los casos, porque se personifica a la IA, otorgándole capacidades que no tiene y que no tendrá por un tiempo largo.


Deepmind, Watson, Alexa, Siri, etc. Tienen nombres y además “inteligencia”. ¿Pero son personas? Antes que dejes de leer pensando en lo simple de la respuesta, voy a ponerme un poco técnico desde el punto de vista legal. Para el derecho, Alexa no es una persona, pero técnicamente Amazon sí. Persona jurídica, pero lo es. Al menos en un sentido amplio otorgándole derechos y obligaciones independientes de quienes lo componen.

Harari habla de las construcciones que como seres humanos hicimos y que les otorgan entidad: los países existen más allá de su composición territorial, sus habitantes actuales, o sus gobernantes. Amazon existe porque es una creación de Jeff Bezos, pero no depende ahora de él y salvo que “muera” en términos jurídicos, lo sobrevivirá.

¿Qué diferencia entonces a Amazon de Alexa? ¿Por qué Amazon puede comprarse un edificio y ser su dueño legalmente y Alexa no? Bueno, porque la ley le da esa entidad, y nada más que por eso.  Ahora, la ley también es una creación humana, e implica en sí misma un acuerdo como sociedad en relación a cómo se forma, si es vía un Congreso, o el dictamen del Rey, o de un grupo de sabios. Todo entonces no es más que una construcción de ideas y acuerdos.

Existe una discusión en derecho (a la cual no vamos a entrar) sobre la entidad humana y los derechos inalienables. El derecho natural y los derechos humanos. En resumen, se cuestiona si se requiere una ley para que exista un derecho, por ejemplo, a la vida, o si el derecho existe y la ley lo expresa.


La “ética” de la inteligencia artificial


Vamos a hacer un spoiler rápido: no existe la ética en el rubro de la inteligencia artificial. O puesto de otro modo: la ética en la inteligencia artificial depende únicamente de quien la crea y cómo la utiliza. La Inteligencia Artificial no tiene ética así como no la tiene un arma, un misil, o un martillo.

Si buscan, van a encontrar un número importante de papers y reflexiones sobre la ética de los algoritmos y cómo se deben crear inteligencias artificiales justas. Hay sistemas y algoritmos de reconocimiento facial racistas.

Hace muy pocos días, y en el clima generado luego de la muerte de George Floyd, Facebook, IBM y Microsoft[1] declararon que dejarían de desarrollar sistemas de reconocimiento facial para fuerzas policiales.

Es cierto que efectivamente los sistemas de reconocimiento facial tienen estadísticamente menos errores al identificar a blancos, que a otras razas. Muchas veces, con consecuencias escandalosas. Así, una persona con coartada

perfecta, fue arrestada y esposada enfrente de toda su familia y vecinos, porque fue identificada robando una joyería. Cuando contrastaron las imágenes de seguridad con la persona real, en la comisaría, los policías reconocieron su error. Pero el daño a su imagen ya estaba hecho.

¿Significa que el sistema es malo? ¿Racista? No, obviamente. El problema está en quien le dio los datos al algoritmo y la cantidad de caras y fotos para entrenarlo. Y el problema aún más grave es de los humanos que, quizás llevando la personificación de la IA al extremo, la dejó hacer su trabajo sin ningún control.


¿Puede una IA tener derechos de autor?


En opinión de quien escribe, claramente no. Quien tiene los derechos de autor sobre las creaciones de la IA es quien desarrolló en primer lugar ese algoritmo. No debería ser relevante cómo luego ese algoritmo produce una canción, un invento, o escribe una obra. El autor del algoritmo debería ser su dueño.

Pero la respuesta tiene matices que pueden interesar a abogados, tales como la co-autoría en caso que el algoritmo haya sido entrenado con datasets que no son propios. Si para enseñarle a escribir novelas a mi Inteligencia Artificial le hice leer todos los libros de Pérez Reverte, ¿Este tiene derechos sobre los próximos libros del algoritmo? Personalmente creo que no, así como los autores no tienen derechos sobre los libros que escriban los alumnos de una escuela donde enseñaron sus libros.

Pero si parecen tontas las preguntas, tengan en cuenta que hace menos de un año la oficina de Patentes y Marcas de Estados Unidos invitó a especialistas en la materia a opinar expresamente sobre estas cuestiones[2]. No parecería tratarse ya de preguntas filosóficas o de algunos futuristas en blogs perdidos por ahí.

Algunos incluso pensarán que la sola idea de un algoritmo creando algo sin que se involucre el humano en ese proceso subsiguiente es exagerada. Pero bueno, no tanto. Entren a https://www.aiva.ai/ y prueben cómo genera música. Tan es así que sus autores intentan vender la suscripción paga con anuncios como este:

No licensing headache

Like a track you just created with AIVA? Need to use it for your own commercial activity? No problem. By subscribing to our Pro Plan, you own the full copyright of any composition created with AIVA, forever.


Las organizaciones autónomas descentralizadas


Quizás lo más parecido a una IA con personería sean las DAOs (por sus siglas en inglés Decentralized Autonomous Organizations). Las DAOs son organizaciones basadas en el concepto de blockchain: sin autoridades centrales, están basadas en código y se rigen con las mismas reglas que los contratos inteligentes: funcionan sin que se requiera una intervención humana.

La diferencia central con las sociedades genera asimismo uno de los grandes problemas que existen para el derecho: si las DAOs pueden actuar en el mercado e interactuar con terceros, quién es responsable por esos actos? Acá la respuesta no es tan simple, al menos para mí, como en los casos anteriores. Incluso en las sociedades no todo puede serle imputado a sus directores y fueron necesarias varias construcciones legales adicionales para entender e incluso imputar responsabilidad penales a las sociedades (y todavía eso no está del todo claro).

Hoy creo que las DAOs no tienen personalidad porque, como ocurría hace cientos de años con las sociedades comerciales, no existe un consenso que, por ley, costumbre o uso generalizado, les otorgue tal carácter.

Seguramente a medida que las capacidades de los algoritmos crezcan y asuman más autonomía sobre sus creadores, estas preguntas se irán respondiendo de distintos modos. Por ahora, no me apuraría por equiparar la Inteligencia Artificial con una persona. Ya tendremos tiempo para preocuparnos por eso. E incluso asustarnos.

Share this post