Imagina un futuro donde tu tostador pueda anticipar qué tipo de tostada quieres. Durante el día, escanea por Internet en busca de nuevos e interesantes tipos de tostadas. Quizás te pregunte sobre tu día o quieres hablar sobre nuevos logros en tecnología de tostadas.
¿En qué nivel se convertiría en una persona? ¿En qué punto te preguntarías si tu tostadora tiene sentimientos? Si los tuviera, ¿al desconectarla sería un asesinato? ¿Y seguirías siendo su dueño? ¿Llegará el día que estemos forzados a darles derechos?
La Inteligencia Artificial (IA) ya está en todas partes. Se aseguran de que los estantes estén abastecidos con los suficientes productos, te entrega la publicidad correcta y quizá hayas leído una nueva historia, escrita totalmente por una máquina.
En la actualidad vemos "chatbots" como Siri y nos reímos de sus primitivas emociones simuladas, pero lo más probable es que tengamos que lidiar con seres que hagan difícil trazar la línea entre la humanidad real y la simulada.
Lo más probable es que aún no. Pero si vienen, no estamos preparados para ello. Mucha de la filosofía de los derechos no está equipada para lidiar con el caso de la Inteligencia Artificial. La mayoría de las reivindicaciones por derechos, con un humano o animal, se centran en torno a la cuestión de la consciencia.
Desafortunadamente nadie sabe que es la consciencia, ¿algo que es inmaterial? Otros dicen que es un estado de materia como el gas o el líquido. Independientemente de la definición precisa, nosotros tenemos un conocimiento intuitivo de consciencia, porque la experimentamos. Estamos conscientes de nosotros y de nuestros alrededores.
Sabemos lo que se siente estar inconsciente. Algunos neurocientíficos creen que cualquier sistema lo suficientemente avanzado puede generar consciencia. Así que, si su tostador tiene el suficiente conocimiento puede llegar a ser consciente de sí mismo. Si lo lograse, ¿merecería tener derechos? ¡Bueno! no tan rápido, lo que nosotros definimos como derechos, ¿tendría sentido para él?
La consciencia da derecho a seres, a tener derechos. Porque le da al ser la capacidad de sufrir. Esto significa que la capacidad no sólo de sentir dolor, sino de ser consciente de ello. Los robots no sufren y probablemente no lo harán a menos que los programemos para ello. Sin dolor ni placer no hay una preferencia y los derechos carecen de sentido.
Nuestros derechos humanos están profundamente ligados a nuestra propia programación. Por ejemplo, no nos gusta el dolor porque nuestros cerebros evolucionaron para mantenernos con vida, para impedirnos tocar el fuego o hacernos huir de depredadores. Así que inventamos los derechos que nos protegen de la violación que nos causa dolor.
Incluso los derechos más abstractos como la libertad tienen sus raíces en la forma en que nuestro cerebro está cableado para detectar lo que es justo e injusto. ¿Una tostadora que es incapaz de moverse, le molestaría estar encerrada en una jaula? ¿Le importaría ser desmantelada si no le tuviera miedo a la muerte? ¿Le importaría ser insultada si no tuviera necesidad de tener autoestima?
Esto para que el robot prefiriera la justicia sobre la injusticia, el placer sobre el dolor y ser consciente de ello. ¿Eso lo haría lo suficientemente humano? Muchos tecnólogos creen que una explosión de tecnología ocurriría cuando la Inteligencia Artificial pueda aprender y crear su propias Inteligencias Artificiales, incluso más inteligente que ellos.
En este punto la pregunta de cómo los robots están programados estará en gran parte fuera de nuestro control. ¿Qué pasaría si una inteligencia artificial encuentra necesario programar la capacidad de sentir dolor, al igual que la biología evolutiva lo vio necesario en la mayoría de las criaturas vivientes?
¿Los robots se merecen estos derechos? Tal vez deberíamos estar menos preocupados, sobre el riesgo de que robots superinteligentes se opongan a nosotros y más preocupados por el peligro que representamos nosotros, para ellos.
Es decir, que somos especiales, copos de nieve únicos, con derecho a dominar el mundo natural. Los seres humanos tienen una historia de negar que otros seres son capaces de sufrir como ellos lo hacen. En medio de la Revolución Científica, René Descartes argumentó que los animales eran simples autómatas, robots si lo prefieres.
Así, al herir un conejo era tan moralmente repugnante como golpear un animal de peluche. Muchos de los mayores crímenes contra la humanidad fueron justificados por sus autores, como que las víctimas eran más animales que humanos civilizados. Aún más problemático, es que tenemos un interés económico en negar derechos a los robots.
Si nosotros podemos obligar a un IA sensible, posiblemente a través de tortura programada, para que haga lo que nos plazca, el potencial económico es ilimitado. Lo hemos hecho antes, después de todo. La violencia se ha utilizado para obligar a los humanos a trabajar, y nunca hemos tenido problemas para inventar una justificación ideológica.
Los propietarios de esclavos argumentaron, que la esclavitud beneficiaba a los esclavos. Puso un techo sobre sus cabezas y les enseñó el cristianismo. Los hombres que estaban en contra de que las mujeres votaran, argumentaron que interesaba a las mujeres dejar las decisiones difíciles a los hombres. Los agricultores argumentaron que cuidar de los animales y alimentarlos, justifica su muerte temprana por nuestras preferencias alimentarias.
Si los robots se vuelven conscientes, no habrá escasez de argumentos para los que dicen que deberían permanecer sin derechos, especialmente de aquellos que pueden beneficiarse de ello. La inteligencia artificial plantea graves preguntas acerca de los límites filosóficos.
Lo que podemos preguntar, si los robots son conscientes o merecedores de derechos, nos obliga a plantear preguntas básicas, como ¿qué nos hace humanos? ¿Qué nos hace merecedores de Derechos?
Independientemente de lo que creemos, la pregunta que necesite ser resuelta en el futuro próximo sería ¿Qué vamos a hacer si los robots comienzan a exigir sus propios derechos?