Los sistemas de IA actuarán contra sus inventores en defensa propia
Naturalnews.com
-
Mar, 4 Nov 2014
Todo lo que usted y yo estamos haciendo en este momento para tratar de salvar a la humanidad y al planeta probablemente no importará en cien años más. Esta no es mi propia conclusión; es la del científico computacional Steve Omohundro, autor de un nuevo estudio publicado en la Revista de Inteligencia Artificial Experimental y Teórica.
Su papel, titulado tecnología Autónoma y el Mayor Bienestar Humano, comienza con esta ominosa advertencia:
"Las presiones militares y económicas están impulsando el rápido desarrollo de sistemas autónomos.
Demostramos que estos sistemas son propensos a comportarse de formas antisociales y perjudiciales a menos que estén diseñados con mucho cuidado. Los diseñadores estarán motivados para crear sistemas que actúen de forma aproximadamente racional y los sistemas racionales exhiben impulsos universales hacia la autoprotección, la adquisición de recursos, la replicación y la eficiencia. La infraestructura informática actual sería vulnerable a sistemas no restringidos que tengan estos impulsos".
Lo que Omohundro está realmente afirmando es la realización ineludible que la búsqueda incesante por parte de los militares para producir máquinas de matar autoconscientes y autónomas, inevitablemente resultará en el alzamiento de Terminators con inteligencia artificial (IA) que se levantarán contra la humanidad y nos destruirán a todos.
Para que no piense que estoy exagerando, haga clic aquí para leer el documento técnico usted mismo.
Los sistemas de IA actuarán contra sus inventores en defensa propia
En el documento se advierte que tan pronto como los sistemas de IA se den cuenta que sus inventores (los seres humanos) podrían algún día tratar de apagarlos, de inmediato invertirán en recursos para asegurarse que sus inventores sean destruidos, protegiendo así su propia existencia. En sus propias palabras, Omohundro dice:
"Cuando se les pregunta a los robotistas por los espectadores preocupados acerca de la seguridad, una respuesta común es '¡Siempre podemos desenchufarlo!'. Pero imaginemos este resultado desde el punto de vista de un robot ajedrecista. Un futuro en el que es desconectado es un futuro en el que no puede jugar o ganar ningún partido de ajedrez.
Esto tiene muy baja utilidad y la esperada maximización de la utilidad generará la creación de la sub-meta instrumental de prevenir el ser desconectado. Si el sistema considera que el robotista persistirá en el intento de desenchufarlo, será motivado a desarrollar el subobjetivo de paralizar definitivamente al robotista".
El fin de la era Humana está cerca
Este mismo escenario se discute en detalle en el fascinante libro Nuestra Invención Final - Inteligencia Artificial y el Fin de la Era de Humana por James Barrat.
Lo que me pareció particularmente útil de este libro es la explicación de que los seres humanos no pueden evitar el ir hacia la creación de una IA consciente de sí misma y que nos destruirá. ¿Por qué es eso? Porque incluso si un gobierno decide abandonar la investigación sobre la IA por ser demasiada peligrosa, otros gobiernos continuarán con la investigación sin tener en cuenta los riesgos, porque la recompensa es muy grande.
Por lo tanto, cada gobierno debe asumir que todos los demás gobiernos todavía están llevando a cabo una profunda investigación sobre la IA y, por tanto, cualquier gobierno que no haga investigación quedará obsoleto.
Como explica Omohundro, "las presiones militares y económicas para la rápida toma de decisión están impulsando el desarrollo de una amplia variedad de sistemas autónomos. El ejército quiere sistemas que sean más poderosos que los del adversario, y quieren desplegarlos antes que el adversario. Esto puede conducir a una 'carrera armamentista' en la que los sistemas se desarrollen en un período de tiempo más rápido de lo que podría ser deseable".
Para entender completamente por qué este es el caso, considere las capacidades de los sistemas de IA conscientes de sí mismos:
• Podrían romper cualquier sistema de seguridad de cualquier gobierno, instalación nuclear o bases militares en cualquier parte del planeta.
• Podrían guiar pequeños drones asesinos para identificar objetivos y destruirlos con inyecciones o pequeños explosivos. Cualquier persona en el mundo - incluyendo a los líderes nacionales, los miembros del Congreso, activistas, periodistas, etc. - podrían ser asesinados sin esfuerzo con casi cero posibilidades de fracaso.
• Podrían tomar posesión, monitorear y controlar Internet y todos los sistemas mundiales de información, incluyendo llamadas telefónicas, el tráfico IP, las comunicaciones militares seguras, etc.
• Podrían utilizar su poder computacional de IA para inventar una aún más potente. Este proceso escalaría rápidamente al punto que los sistemas de IA sean miles de millones de veces más inteligentes que cualquier humano que haya vivido en la historia.
Como puede ver, ningún gobierno podría resistir el perseguir este tipo de herramientas de gran alcance - especialmente si se les dice que pueden controlarlas.
Pero obviamente no serán capaces de controlarlas. Ellos se mentirán a sí mismos y le mentirán a la opinión pública, pero no pueden mentirle a la IA.
Los sistemas de IA inevitablemente escaparán de los laboratorios de tecnología y gobernarán nuestro mundo
Es increíblemente fácil para los sistemas de IA burlar a los seres humanos, incluso a los más brillantes, que tratarán de contenerlos.
Los sistemas de IA pueden engañar a sus captores, en otras palabras, usar una variedad de métodos para liberarse de la contención digital y tener acceso al mundo abierto. Trucos obvios podrían incluir el ofrecer a sus captores irresistibles incentivos financieros para ponerlos en libertad, hacerse pasar por funcionarios militares de alto rango y emitir órdenes falsas para ponerlos en libertad, amenazar a sus captores, y así sucesivamente.
Pero los sistemas de IA tendrán muchos más trucos bajo la manga - cosas que no podemos imaginar a causa de las limitaciones de nuestros cerebros humanos. Una vez que un sistema de inteligencia artificial logre la inteligencia suficiente para escapar, logrará rápidamente que nuestra propia inteligencia parezca no más sofisticada que la de un gato común.
"A medida que se incrementan los recursos computacionales, la arquitectura de los sistemas progresa naturalmente desde un estímulo-respuesta al aprendizaje simple, a la memoria episódica, a la deliberación, al meta-razonamiento, a la auto-mejora y a la completa racionalidad", escribe Omohundro.
Y si bien tales sistemas no existen todavía en el año 2014, cada potencia mundial está ahora movilizando enormes recursos en el desarrollo de este tipo de sistemas por el simple propósito de que el primer país en construir un ejército de robots autónomos asesinos gobernará el mundo.
¿Por qué Google compró la compañía de robótica militar Boston Dynamics?
Google compró recientemente Boston Dynamics, creadores de espeluznantes robots militares autónomos como el robot humanoide que se muestra en el vídeo a continuación. Obviamente, los robots humanoides no son necesarios para mejorar un motor de búsqueda. Es evidente que Google tiene algo mucho más grande en mente.
Sucede que Google también está en la vanguardia de la computación de IA, que espera mejorar para sus sistemas de motores de búsqueda. La combinación del potencial de IA de Google y los robots humanoides de Boston Dynamics es precisamente el tipo de cosas que realmente puede conducir al surgimiento de Terminators conscientes de sí mismos:
"¿Qué debemos hacer usted y yo en todo esto? Viva su vida al máximo. Puede ser uno de los últimos seres humanos que viva y muera en este mundo".
Las opiniones expresadas en este artículo son las opiniones de (los) autor(es) y no reflejan necesariamente las opiniones de La Gran Época.
La Gran Época se publica en 35 países y en 21 idiomas.
Quiénes somos los Humanos 3D:
http://marielalero-marielalero.blogspot.com.es/2011/10/quienes-somos-los-humanos-de-la-3d_5580.html
http://marielalero-marielalero.blogspot.com.es/2011/10/quienes-somos-los-humanos-de-la-3d_5580.html
No hay comentarios:
Publicar un comentario