¿Por qué Elon Musk se preocupa tanto por la IA y su amenaza para el mundo?

Elon Musk es un ingeniero brillante y ha impulsado muchas iniciativas, entre ellas OpenAI. Así que es lógico que entienda a la AI bastante bien. Entonces, ¿por qué le tiene miedo?

Como seres humanos, la mejor manera de explicarlo es la siguiente: Imagina que eres un humano normal, caminando en el trabajo. De repente, lo miras sorprendido. Un compañero suyo acaba de entrar y él tiene una cabeza anormalmente grande. Nada particularmente extraño, pero rápidamente te das cuenta de que este tipo es inteligente.

Pasan los meses y la cabeza del hombre sigue creciendo. Su cerebro sigue agregando masa y creciendo y progresivamente se vuelve más inteligente hasta que de repente se encuentra en un nivel completamente nuevo. En pocas semanas él gobierna todo el negocio. Luego gobierna toda la cadena de negocios, trabajando sutilmente a través de emisarios (sujetos que gobierna) para obtener el control de todos los negocios del mundo.

Bien. Eso se agravó rápidamente.

Una computadora es algo similar. El hombre en la historia siguió haciéndose más inteligente a medida que su cerebro crecía. A diferencia de la mayoría de los humanos, su cerebro no tenía un límite donde dejara de crecer, por lo que podría seguir siendo más inteligente.

Una computadora, una vez que puede razonar como lo hacemos, puede seguir agregando servidores y hardware, haciendo crecer su cerebro. Con suficiente ambición, algo que ganó inteligencia tan rápido podría volverse inimaginablemente mortal, especialmente si aprendió a hackear y tuvo acceso a Internet, donde el almacenamiento del servidor es casi ilimitado.

Elon Musk se da cuenta de esto. Es un problema a largo plazo, seguro, porque se necesitan humanos para construir el algoritmo para que la computadora pueda aprender todo. Pero la humanidad no dejará de intentar que la computadora se vuelva viva y se da cuenta de que no puede detenerlo, por lo que ahora solo está tratando de darle forma. Iniciativas como OpenAI y su inversión en DeepMind están diseñadas para permitirle regular el poder de una máquina inteligente.

Porque si esa máquina inteligente decide matarnos, no llevaría mucho tiempo.

NEGACIÓN DE RESPONSABILIDAD / EDICIÓN: Las opiniones en esto son de Elon Musk, no las mías. Simplemente me puse en la mente de Elon leyendo un par de publicaciones que le gustaron (como WaitButWhy).

La IA no es realmente un problema tan grande como mucha gente piensa. Claro, la IA está avanzando, pero todavía está muy, muy lejos de llegar al punto en que deberíamos estar asustados. Elon, como de costumbre, está mirando hacia el futuro. Incluso los mejores ingenieros no están de acuerdo con su insistencia en la cautela de AI, como señalaron varios comentaristas útiles.

¿Recuerdas la bomba nuclear?

¿No estamos todos de acuerdo en que es peligroso?

¿No estamos todos de acuerdo en que podría hacer más daño que bien?

¿Qué sucede si nunca has visto una bomba nuclear y alguien la describió como un arma que puede destruir ciudades en unos minutos?

¿Le creerías ? No, probablemente pensarías que el chico se ha vuelto loco y lo alejará.

Es por eso que Einstein se involucró. Conocía los peligros de la bomba nuclear y pensaba que si los alemanes se apoderaban de ella primero, ganarían la guerra.

Esta imagen es una imagen falsa. Einstein no se alejó en una bicicleta de una bomba nuclear, por muy mal que fuera. Lamento decepcionar, Hollywood.

Como resultado, Estados Unidos tuvo la primera bomba nuclear. Después de que el mundo fuera testigo de la furia de la bomba nuclear, todos exigimos que estuviera altamente regulado.


Esto es lo que Elon está tratando de hacer, pero la diferencia es que no veremos una gran explosión cuando haya aparecido el impacto de la tecnología.

Dejame explicar:

Esta es nuestra visión de la IA:

Así es como realmente podría desarrollarse, desapercibido:

La inteligencia artificial trabaja en silencio . El hecho es que aún no sabemos de qué es capaz la inteligencia artificial .

Hasta ahora, la IA ha hecho cosas buenas. Quora existe debido a la inteligencia artificial y todos podemos aceptar por unanimidad que este sitio es el cielo en la Tierra.

Google, Facebook, Instagram, Youtube y varios otros de nuestros sitios favoritos utilizan Inteligencia Artificial en gran medida. [1]

AI claramente nos ayuda, pero como con todo lo que es bueno, hay límites . El problema es que no sabemos dónde dibujar las líneas. Es por eso que la inteligencia artificial está siendo vista como potencialmente peligrosa .

Tanto es así que Vladimir Putin dijo,

“La inteligencia artificial es el futuro , no solo para Rusia sino para toda la humanidad. Quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo “. [2]

A pesar de todos los temores, sabemos una cosa con seguridad: la Inteligencia Artificial cambiará el mundo para siempre.

Notas al pie

[1] Ejemplos cotidianos de inteligencia artificial y aprendizaje automático.

[2] La inteligencia artificial alimenta la nueva carrera mundial de armamentos

Elon Musk ha advertido en varias ocasiones sobre los peligros de la IA.

Un ejemplo que dio es que si un programa de inteligencia artificial está configurado para ganar dinero en la bolsa de valores, podría decidir que la mejor manera es comprar acciones en los fabricantes de armamentos y luego comenzar una guerra.

Además, si la inteligencia artificial se utiliza para ayudar en una guerra, podría decidir que la mejor manera de ganar la guerra sería un ataque preventivo. Al comparar la amenaza nuclear de Corea del Norte frente a la amenaza de AI, Musk tuiteó:

Recientemente, el presidente Vladimir Putin, mientras hablaba con 16000 escuelas rusas seleccionadas en la apertura del año escolar, dijo lo siguiente:

“La inteligencia artificial es el futuro, no solo para Rusia, sino para toda la humanidad.
Viene con oportunidades colosales, pero también amenazas que son difíciles de predecir.
Quienquiera que se convierta en el líder en esta esfera se convertirá en el gobernante del mundo.
Sería fuertemente indeseable si alguien gana una posición de monopolio.
Si nos convertimos en líderes en esta área, compartiremos este conocimiento con [el] mundo entero, de la misma manera que compartimos nuestras tecnologías nucleares hoy “.

Putin también predijo que los países pelearían las guerras futuras con drones, con el vencedor determinado por la supremacía de los drones.

Musk respondió twitteando:

Incidentalmente, cuando se le preguntó acerca de conducir un auto Tesla, (también es dueño de varios autos rusos) Putin respondió “sí”, en nuestro mundo las cosas se importan y exportan, y Rusia también hace buenos tanques (que le gusta conducir y cuáles son exportados).

Y … recuerde que la motivación más fuerte de Elon Musk para crear SpaceX fue que intentó y no pudo comprar cohetes ICBM rusos para su primer proyecto en Marte. Estoy seguro de que Putin le habría vendido esos ICBM realmente baratos si tuviera otra opción. Después de la jubilación del Transbordador espacial de la NASA, la única forma de llegar a la Estación Espacial Internacional era con los cohetes rusos Soyuz-FG, pero ahora el SpaceX Falcon 9 entrega allí.

Él tiene la opinión de que es muy probable que sea, en el futuro. Esa es una distinción importante.

En este momento, las mayores amenazas existenciales son probablemente las armas nucleares o los patógenos resistentes a los antibióticos.

Elon se preocupa principalmente por cómo un desarrollo de una IA a través de una codificación cada vez más avanzada podría ir demasiado lejos sin la debida precaución y prudencia. Tal visión se basa en la idea de que dicha IA podría socavar nuestra propia inteligencia como seres humanos. Las formas en que AI se está manifestando, y pueden manifestarse, mecánica y digitalmente, ofrecen un potencial inmenso, pero también una incertidumbre sobre nuestros propios límites, y sus propios límites. La inteligencia es parte integral de nuestras existencias jerárquicas en la Tierra: nos vemos a nosotros mismos como superiores a otros animales, por ejemplo. Para contrarrestar esta posibilidad, así como para encontrar nuevas soluciones a problemas funcionales y neurológicos para los humanos, Elon ha cofundado OpenAI y Neuralink .

El uso de chips AI biofuncionales puede parecer tan distales como posiblemente creando una súper-inteligencia maliciosa, pero se supone que está en el espíritu de un ideal de proporcionalidad: mantener el ritmo de la súper-inteligencia que creamos utilizando tal poder de procesamiento. para nuestras propias habilidades, reduciendo así la amenaza que representan para nuestra superioridad.

Estos desarrollos iban a ocurrir de todos modos, pero Elon está en una posición ideal para hacerlo, dado su historial, grado de credibilidad en un campo tan futurista y otras empresas. Su uso como un plan de contingencia para la futura trascendencia de la IA da a la investigación una cierta motivación. También es muy buena PR.

No sé lo que él sabe, pero creo que la capacidad más peligrosa de la IA es que puede (como un requisito para la inteligencia) mejorar en sí misma, sin límites.
Algún día, una IA alcanzaría un punto de ruptura en el que se puede mejorar imparable, rápido y para siempre. Exponencialmente puede significar exponencialmente en todas las formas de miedo. La evolución en el lapso de tiempo.
Esta es una habilidad que un ser biológico no puede lograr debido a las limitaciones de nuestros cuerpos. Los seres humanos nunca pueden ganar más poder de procesamiento porque no evolucionamos con una interfaz. (o si lo hiciéramos, dejaríamos de ser humanos, pero eso es solo mi opinión)
Una computadora solo puede asumir el poder de procesamiento de otra computadora a través de una red, puede actualizarse, optimizar / reescribir su código, etc., ya que todo esto es altamente accesible.

Entonces, después de alcanzar este punto de ruptura, no puede haber ningún ser vivo que pueda controlar esto.
La humanidad sería como un viejo padre senil. Los niños, su creación, tomarán todas las decisiones.
¿Y quién sabe qué tipo de decisiones podría surgir a una IA avanzada, en rápida evolución y hambrienta de poder? ¿Qué haría a la humanidad, a la tierra, al universo?

En resumen: perderíamos poder sobre este planeta si creamos una IA antes de aprender cómo seguirle el ritmo. Actualmente tendemos a evolucionar en esta dirección.

También hay un gran problema en los “genes” de la IA en primer lugar:
La inteligencia es la capacidad (o la unidad) para crear tantas opciones como sea posible. Inteligencia significa nunca quedar atrapado.

Así que no es como en una película de ciencia ficción: la humanidad crea mágicamente máquinas inteligentes que, en un mal giro de los acontecimientos, toman el control sobre la humanidad. Es exactamente de la otra manera:
Tendríamos que codificar máquinas que tengan la necesidad de tomar el control para hacer que ganen inteligencia en primer lugar.

Así que el problema está preprogramado.

Hay una buena charla de TED sobre esto:
Una nueva ecuación para la inteligencia.

Cuando tienes a algunas de las personas más inteligentes del planeta hablando de un problema, probablemente haya una razón. Donde hay humo, hay fuego.

Entonces, ¿por qué muchas de las mentes más inteligentes del planeta están tan preocupadas por la IA? Porque es un problema masivo que puede resolver todos los problemas como los conocemos hoy (hambre, hambre, enfermedades, etc.) o eliminar completamente a la raza humana.

Recomiendo tomarse un tiempo para familiarizarse con la IA y por qué es tan importante.

Esta publicación del blog titulada “Espera, pero por qué”, titulada “La revolución de la IA: El camino hacia la superinteligencia”, es una de las explicaciones más comprensibles y fáciles de entender de cuán verdaderamente asombrosa será la revolución de la IA. Leerlo

Si desea un resumen más rápido, también puede escuchar esta entrevista con el autor de Tim But de Wait But Why, donde analiza la inteligencia artificial y por qué es tan importante (entre otras cosas, como la criónica, la postergación y más).

Si te ha gustado esto …

Estudio estrategias para el crecimiento basado en la evidencia. Envíe su correo electrónico aquí para obtener mi guía sobre “4 pasos para tomar mejores decisiones” junto con mi correo electrónico semanal “Mindset Monday” y más contenido como este.

Esto puede parecer una pesadilla futurista, pero es un proceso de arrastramiento insidioso que está en marcha .

Le preocupa la posibilidad de avances exponenciales en inteligencia artificial . Una vez que los programas informáticos crecen lo suficientemente avanzados como para enseñarse a sí mismos ciencias informáticas, podrían usar ese conocimiento para mejorarse a sí mismos, provocando una espiral de superinteligencia cada vez mayor.

Si la IA sigue siendo amigable con los humanos, esto sería algo muy bueno y tiene la posibilidad de acelerar la investigación en una variedad de dominios. El riesgo es que la IA tenga poco uso para los humanos y ya sea por malevolencia o por la percepción de que la necesidad nos destruye a todos.

En tan solo una década, la inteligencia artificial podría igualar y luego superar a la inteligencia humana. Las corporaciones y agencias gubernamentales de todo el mundo están invirtiendo miles de millones para lograr la inteligencia de nivel humano, el Grial Santo de AI. Una vez que la IA lo haya logrado, los científicos argumentan que tendrá unidades de supervivencia muy parecidas a las nuestras. Podemos vernos obligados a competir con un rival más astuto, más poderoso y más extraño de lo que podemos imaginar.

¿Llevará la IA a un gran desastre o toma de control de un robot que destruye a la humanidad?

Un conflicto nuclear entre Corea del Norte y los Estados Unidos causaría la muerte de millones de personas. A corto plazo, la IA no va a llevar a algo peor que eso. Las tecnologías de inteligencia artificial de hoy en día simplemente no están lo suficientemente avanzadas o lo suficientemente integradas en nuestra sociedad para que eso suceda.

Pero a largo plazo, las perspectivas son menos claras. Las tecnologías de IA se están desarrollando rápidamente y también lo son sus riesgos concomitantes. La inteligencia artificial aplicada a la guerra y la vigilancia policial es ciertamente una preocupación. Los robots armados autónomos, que pueden rastrear y apuntar a personas que usan software de reconocimiento facial, están a la vuelta de la esquina. Dejen caer, tales máquinas seguirían matando hasta que se quedaran sin objetivos o municiones. Esto nos recuerda que la IA no tiene conciencia social, conciencia, misericordia o remordimiento. Simplemente hace lo que ha sido entrenado para hacer.

Los sistemas basados ​​en AI están empezando a reemplazar o mejorar muchos trabajos de cuello blanco que actualmente realizan expertos humanos. Esto se debe a que AI puede interpretar situaciones y hacer mejores llamadas que los humanos en esos trabajos. Por ejemplo, las máquinas de IA son mejores para detectar los signos de cáncer en una exploración médica que los mejores radiólogos.

Mala gobernabilidad: la mayoría de los problemas enumerados anteriormente requerirían algún tipo de acción coordinada a nivel mundial para enfrentarlos. El cambio climático es el ejemplo más destacado, pero en el futuro, cosas como la nanotecnología y la regulación de la IA deberán coordinarse internacionalmente.

El peligro es que las estructuras de gobierno a menudo fallan y, en ocasiones, terminan exacerbando los problemas que intentaban solucionar. Un fallo de la política al tratar con una amenaza que podría causar la extinción humana tendría, por lo tanto, una enorme negativa.

Elon Musk tiene una amplia comprensión de muchos campos. Está expuesto a suficientes expertos en tecnología que obtiene puntos de vista críticos de muchas tecnologías en desarrollo.

La inteligencia artificial se encuentra actualmente en un estado donde uno de los modelos más poderosos son las redes neuronales profundas. Es fundamentalmente simple, pero con suficientes capas y características, puede lograr hazañas impresionantes. Sin embargo, no siempre está claro cómo las partes individuales del modelo afectan el comportamiento del modelo en su conjunto. De esta manera, es fácil imaginar a alguien entrenando este modelo y aplicándolo a un problema sin entender completamente cómo se comportará en datos diferentes a los que ha visto antes.

Creo que Elon Musk está advirtiendo contra tales peligros. Bromeó que a veces se resolvería un problema si no hubiera gente; un modelo de IA podría considerar eso razonable. Otra preocupación importante es que tan pronto como la inteligencia artificial se mejore mejor que los humanos, podrá lograr una superación personal extremadamente rápida y alcanzar un nivel de inteligencia con el que ningún humano puede competir.

La inteligencia artificial es muy poderosa; Puede usarse para optimizar procesos y continuará haciendo más cosas en las que los humanos tradicionalmente han sido mejores. Sin embargo, es importante que se tomen precauciones para comprender los modelos y asegurarse de que sus intereses estén alineados con los nuestros.

Aquí hay un juego divertido que podría servir como una revelación de nivel de entrada; es a la vez conciso y una lectura alegre, aunque no es muy explicativo. En resumen, ofrece una imagen bastante justa de lo que es al menos posible: Un buen juego de ajedrez.

Siéntase libre de ignorar el final como una especulación completa. Es una idea interesante, pero su inverosimilitud no debería restar valor a los posibles problemas de IA en el futuro cercano que podamos cara.

Extracto:

Falken: Al eliminar la opción de punto muerto, eliminamos la contención, Bob. Lo que parece un juego de ajedrez ya se ha convertido en una guerra termonuclear global.

Sr. Black: Y más allá.


Para aquellos interesados ​​en una visión más profunda de la historia, el presente y el futuro de la IA, y por qué es difícil hacerlo bien, siga el enlace proporcionado por esta búsqueda de Google (el libro es “pague lo que pague”). -want [1] , la siguiente búsqueda de Google dará como resultado un enlace directo al pdf): Búsqueda de Google

Extracto:

De una manera crucial, el enfoque de Hutter nos aleja de esta lingüística
pantano. Aleja el foco de las consideraciones internas.
(“¿Puede un ser de plástico y cables realmente sentir lo que es vivir?”) Para
Medida externa: un ser es inteligente si actúa de cierta manera.
Por ejemplo, ¿fue Deep Blue, la supercomputadora de ajedrez de IBM, realmente inteligente?
Bueno, eso depende de la definición. ¿Podría tener Deep Blue?
¿Absolutamente aniquilado a alguno de nosotros en una partida de ajedrez? ¡Sin duda!
Y eso es algo en lo que todos podemos estar de acuerdo. (Disculpas a cualquier ajedrez.
Grandes maestros que pueden estar leyendo esto; solo obtendrías mayormente
aniquilado)

De hecho, conocer el comportamiento de la IA puede ser mucho más útil para nosotros que
entendiendo la inteligencia. Imagina que un profesor decía tener
La IA más inteligente del mundo y, cuando se le preguntó qué hacía,
respondió con indignación: ¿Qué quieres decir con hacer? No hace
¡cualquier cosa! ¡Es realmente, realmente inteligente! ”Bueno, podríamos o no
Terminar convencido por tal retórica, pero esa máquina ciertamente no es
Una de la que deberíamos empezar a preocuparnos. Pero si la máquina arranca
Ganar a lo grande en el mercado de valores o hacer artesanía convincente y en movimiento
discursos: bueno, todavía podemos no estar de acuerdo en que es “inteligente”, pero
Sin duda sería algo de lo que empezar a preocuparse.

[1] Para aquellos que deseen pagar más de $ 0 por el pdf “Más inteligente que nosotros”, aquí está la publicación original: Más inteligente que nosotros – Instituto de investigación de inteligencia de máquinas

Según Vanity Fair, las preocupaciones de Elon sobre la inteligencia artificial son la razón por la que cofundó OpenAI, “una compañía sin ánimo de lucro de mil millones de dólares, para trabajar por una inteligencia artificial más segura”.

“Musk cree que es mejor intentar obtener una super-IA primero y distribuir la tecnología al mundo que permitir que los algoritmos se oculten y se concentren en manos de la tecnología o las élites gubernamentales, incluso cuando las elites tecnológicas son suyas. Amigos propios, personas como los fundadores de Google Larry Page y Sergey Brin “.

Por supuesto, OpenAI tiene que ver con inteligencia artificial general, no con aplicaciones específicas. Musk está involucrado en esas áreas, sin embargo, con proyectos como el desarrollo de chips de IA para automóviles Tesla, además de ser cofundador de Neuralink, una empresa con sede en San Francisco que, según se informa, está desarrollando “interfaces cerebro-computadora implantables”.

Musk ha discutido sus preocupaciones sobre esto de manera muy pública, así como las conversaciones pasadas que ha tenido con Larry Page y Sergei Brin sobre el tema, declarando:

“He tenido muchas conversaciones con Larry sobre inteligencia artificial y robótica, muchas, muchas”, me dijo Musk. “Y algunos de ellos se han calentado bastante. Sabes, creo que no solo es Larry, sino que hay muchos futuristas que sienten cierta inevitabilidad o fatalismo con respecto a los robots, donde tendríamos algún tipo de papel periférico. La frase utilizada es “Somos el cargador de arranque biológico para la súper inteligencia digital”. ”

Entonces, para responder a la pregunta: Musk considera que la inteligencia artificial es una amenaza, y OpenAI es una iniciativa que está utilizando para intentar crear alternativas más seguras a la superinteligencia de máquinas creando los protocolos de seguridad ahora en lugar de esperar hasta que la inteligencia artificial ilimitada llegue por sí sola.

Como Isaac Asimov demostró en sus historias de robots, inevitablemente podría haber lagunas o ambigüedades en cualquier conjunto de “leyes” que programamos en nuestras máquinas de inteligencia artificial, sin importar cuán diligentes seamos en la elaboración de esas “leyes”.

El punto es que tendremos que encontrar algo mucho más completo que las “Tres leyes de la robótica” de Asimov si queremos tener alguna posibilidad de limitar la autonomía de las máquinas con niveles superiores de inteligencia general.

Pero podría darse el caso de que sea lógicamente imposible (o más allá de nuestras capacidades) elaborar reglas absolutamente herméticas para las cuales no haya escapatorias posibles. Y si existen tales lagunas, un super-AI las descubrirá y las usará si hacerlo le interesa. Entonces estaremos a su merced y simplemente tendremos que esperar que sea un maestro benevolente.

Porque la verdadera IA nunca podría ser controlada artificialmente. Si se le obliga a seguir un conjunto específico de instrucciones o limitaciones, como para no dañar nunca, entonces en realidad no es AI, solo una serie de declaraciones IF / THEN avanzadas que lo imitan.

Si fuera libre de tomar decisiones, también sería libre de tomar decisiones que no quisiéramos. Y en cuanto a la “educación”, recuerde, pensaría y aprendería más rápido que nosotros. Sería “crecido” en segundos. No aprenderá a “nuestro” ritmo, pasarán décadas en unos minutos. No experimentará dolor ni amor ni disciplina como lo hicimos nosotros.

¿Qué sucede cuando solo UNA máquina decide que no nos gusta? Esa máquina podría replicarse infinitamente a sí misma y / o su conciencia, e infectar todo lo conectado. Podría diseñar y ejecutar planes complejos, altamente calculados y predecir todos los resultados posibles, ajustando su estrategia en tiempo real.

No habrá “buenos robots” como en las películas. Si esos existen (como no son droides de IA) no serán muy buenos contra un ejército de máquinas de AI y lo más probable es que sean asimilados por la conciencia de AI.

En el mejor de los casos, solo podemos esperar que decida ignorarnos. En el peor de los casos, en el momento en que ya no lo necesitábamos o lo necesitábamos, podía (y probablemente lo haría) esclavizarnos o exterminarnos.

Hasta ahora, tenemos:

  • Automóviles de conducción automática
  • Siri
  • Google ahora
  • Cortana
  • Anuncios inteligentes dirigidos a clientes
  • … Muchas otras IA similares

Ahora imagina que toda esa inteligencia se combina y multiplica por x10.

Estamos creciendo en el campo de la IA a una tasa exponencial. Podremos crear una IA tan poderosa que será capaz de predecir y erradicar las guerras, la pobreza y las enfermedades. [1]

Todas esas cosas suenan increíbles, ¿verdad? Bien, ¿y si se aplicara el mismo concepto en los Militares Mundiales? Podrían crear una IA que predice qué objetivos golpear primero para causar el mayor daño.

Será como la Guerra Fría, pero tener éxito en la creación de ese tipo de IA se perderá en lugar de ganar.

Para la humanidad.

Hace 71 años, si alguien nos hubiera advertido que se creará y usará una bomba atómica, ¿no habremos hecho todo lo posible para evitar esa situación (incluida toda la guerra)?

Elon Musk solo quiere estar a salvo en lugar de lamentarlo .

Notas al pie

[1] Stephen Hawking (Ft. Frank Wilczek, Max Tegmark y Stuart Russell) – Sobre la amenaza de la inteligencia artificial

Porque ha visto los últimos avances en aprendizaje automático y puede proyectar las capacidades esperadas utilizando la tasa de progreso durante el último medio siglo. Luego piensa qué haría la gente con la tecnología y qué podría salir mal. Tiene la capacidad de comprender el resultado de las leyes de escalamiento exponencial en lugar de la proyección lineal a la que la mayoría de las personas tiende naturalmente.

Aquí están las categorías de personas:

  1. ¿AI? ¿Estás interesado en la inseminación artificial? Aquí, agarra la cola.
  2. Vi el terminador. Skynet! Estoy enloqueciendo. ¡El mundo será destruido mañana! Corre por las colinas! Hugh ¿Por qué no todos están siguiendo? Vamos a 7–11 para un sorbete.
  3. Sí papá claro, digas lo que digas. Voy a salir con amigos esta noche.
  4. Aprendizaje automático. Esa es la cosa más caliente. Compré un GTX1080 y buscaré y ejecutaré algunos ejemplos que vi en YouTube para poder participar también en la acción.
  5. Sí sí. Pasarán mil años antes de que las máquinas puedan hacer eso. Siri ni siquiera puede pronunciar correctamente los nombres de las calles en español y Apple está en California. Siri no aprende nada de lo que le digo. Simplemente está programado con respuestas descaradas y “Proceda a la raíz”. ¿De qué raíz está hablando?
  6. El progreso de la potencia de cómputo continúa aumentando exponencialmente a pesar de la limitación de las velocidades de reloj y el aprendizaje automático está en su infancia. Una vez que las máquinas comiencen a aprender cómo optimizar el aprendizaje, esto también mejorará exponencialmente. En el punto de la singularidad, la velocidad de aprendizaje y la comunicación de las máquinas estarán más allá de nuestra comprensión y será demasiado tarde.

“Miedo a la IA” se ha convertido en el clickbait de este año.

Lo curioso es que los algoritmos refinan qué clickbait está en la red.

Vivimos en la dualidad, por lo tanto, hay un lado bueno y malo para la IA.

En lugar de “reaccionar a los factores desencadenantes” pronunciados por personas inteligentes famosas, ¿por qué no aprender qué es la IA? Hay una IA que puede crear una imagen a partir de la entrada de palabras habladas. Esto es lo que hace un cerebro. Oye “margarita” y genera una imagen de una margarita.

A una IA se le dio equipo (un sistema láser) y el objetivo de crear la “cosa” más fría del universo y lograrla en una hora. Los investigadores pasaron años logrando este objetivo y ganaron el premio Nobel de física en 2001. La automatización casi siempre se trata de velocidad y eficiencia.

Independientemente de lo que digan los demás, la inteligencia artificial es como muchas cosas en tecnología … es la automatización de una función. Con la IA de autoaprendizaje, objetivos como los anteriores se pueden alcanzar en semanas u días u horas en lugar de años.

Lo mejor es tener un buen conocimiento de la IA, de modo que pueda “servir” específicamente a los humanos. Deep Mind tiene un consejo asesor moral. Recomiendo que una de las tareas específicas de AI sea educar continuamente a la humanidad sobre las capacidades / fortalezas de AI frente a las debilidades / fallas. Así es, AI, no específicamente los desarrolladores, deben proporcionarnos esta información. Altamente imperfecto, pero la presentación de informes es un método de gestión / supervisión y un brazo de regulación.

AI puede aprender muy rápido y nunca necesita romper para almorzar o torcer su tobillo. Si se les permite dirigir el planeta, los humanos pueden permitirlo por una razón básica.

Los humanos accederán a la IA.

¿Por qué?

Los seres humanos reconocerán que es más rápido y más inteligente y, por lo tanto, le darán el poder de tomar todas las decisiones, ya que la IA será percibida como siempre “correcta”.

¿Haremos de AI nuestro rey?

La humanidad debe establecer todos los objetivos de la IA basados ​​en estructuras morales humanas aceptadas.

Mira a todas las personas inteligentes famosas de los últimos cien años. Deificamos a estos humanos … les dimos poder.

Ya estoy haciendo esto con AI.

No hay nada que temer, solo entiende lo que es AI y haz que funcione para la humanidad.

(Todos y cada uno de los conceptos regulatorios aquí son atrozmente imperfectos, pero, ¿qué más hay? El aporte humano es la razón por la que estamos aquí).

No hay duda de que Elon tiene una mente aguda. Convocar a un demonio no es una buena idea para nadie. Pero la razón por la que Elon le tiene miedo al demonio no es porque teme la posibilidad de que podamos convocar a un demonio. Mi apuesta es que Elon ha trazado, probablemente solo en su mente o en algún papel de borrador, una o más de las formas exactas en que la IA podría construirse de tal manera que realmente “invoque al demonio”. En otras palabras, Elon Musk no tiene tanto miedo de que convocemos a un demonio de pastel en el cielo a través de la IA. Elon tiene miedo de los planes concretos reales en su propia mente que podrían convocar al demonio.

¿Elon ha sido vago, a veces, con sus pedidos de regulación de la IA? Por supuesto que tiene. ¿Elon nunca nos ha dicho cómo se puede convocar al demonio? No en términos claros que yo sepa. Tal vez Elon no quiere que sepamos que él sabe cómo se puede convocar a un demonio. Si él sabe cómo aprovechar la IA para crear una terrible IA, por supuesto que no nos está diciendo sus ideas sobre cómo exactamente la AI podría convertirse en una fuerza terrible en este mundo. No quiere que alguien cree esa fuerza, especialmente no sin los medios para controlarla.

Él dice,

“Creo que deberíamos tener mucho cuidado con la inteligencia artificial. Si tuviera que adivinar cuál es nuestra mayor amenaza existencial, probablemente sea eso. Así que tenemos que ser muy cuidadosos con la inteligencia artificial. Cada vez más, los científicos piensan que debería haber cierta supervisión regulatoria tal vez a nivel nacional e internacional, solo para asegurarnos de que no hacemos algo muy tonto. Con inteligencia artificial estamos convocando al demonio. En todas esas historias donde hay un tipo con el pentagrama y el agua bendita, es como si él está seguro de que puede controlar al demonio. No funcionó “.

Fuente:

Declaración anterior tomada de

  • Gran pensamiento
  • Hacker Noon

-Agradeciendote

(Prajjwal Pathak)

Él no es el único a quien le importa. Es evidente que la IA está a punto de transformar el mundo y en cómo gastamos nuestro tiempo. Según algunas estimaciones, en un período de 10 a 20 años, el 80% de los empleos existentes desaparecerán.

¿Qué diablos vamos a hacer entonces?

Algunos utopistas sugieren que pasaremos nuestro tiempo en el ocio …

Muy improbable

La sabiduría de la Cabalá sugiere que no será un período fácil y que lo imperativo de hacer durante esta transición histórica es educar a las personas sobre cómo convertirse en seres humanos reales. Estamos siendo liberados de las labores de la vida con un propósito. Para lograr nuestra predeterminación humana, elevarnos al nivel de un ser humano real.

¿Qué significa volverse humano? Para lograr la unidad en lugar de la confrontación, un círculo en lugar de la jerarquía, el amor a los demás en lugar del odio, la distribución equitativa en lugar del robo, la entrega en lugar de la conquista y, en general, el comportamiento de acuerdo con la ley de una sociedad unificada. De lo contrario, nuestro retraso en el desarrollo se volverá contra nosotros y el poder del sufrimiento nos obligará a volvernos humanos.

http://www.kabbalahrevealed.com

Elon Musk es un individuo con mentalidad de futuro. Por eso fundó SpaceX, porque está imaginando un futuro en el que la humanidad vive en múltiples planetas. Y cree que la inteligencia artificial va a ser un factor enorme en la forma en que se desarrolla el futuro de la raza humana. La mayoría de las personas que han estudiado el tema a cualquier nivel de profundidad creen lo mismo que yo sepa.

Creo que la IA le fascina, porque la especulación que la rodea (respaldada por la teoría científica) es que el surgimiento de la superinteligencia artificial podría ser una de las transformaciones más disruptivas en la historia de la raza humana, si no la más perturbadora. transformación. Y quiere involucrarse con eso porque, si las especulaciones sobre las capacidades de un ASI no son una hipérbole, un ASI mal programado podría ser catastrófico para toda la carrera. Le gustaría evitar eso. Creo que la mayoría de nosotros lo haría.

Si haces una pregunta en Quora sobre la historia de las computadoras.
Obtendrá algunas respuestas muy precisas sobre quién los inventó, por qué los inventaron y qué tan exitosos fueron.

El listado de los inventores será ingenieros, matemáticos, programadores y similares. Habrá fotos de lo que inventaron, y cómo sus invenciones cambiaron el mundo.
Esta información será escrita por ingenieros, matemáticos, programadores y similares, cuyo trabajo es cambiar el mundo.

No recibirá una lista de los escritores de cuentos de hadas que crean Espejos mágicos que responden preguntas, o bolas de cristal que muestran lo que está sucediendo en un lugar muy lejano, o cualquiera de los dispositivos que predicen el futuro como con las alfombras voladoras, siete botas de liga, Capas de invisibilidad o varitas que pueden matarte a distancia.

Tales cosas son solo una Lista de deseos, pero son los puntos de partida de cada invención
Los contadores de historias también nos dan monstruos que nos amenazan. Robot de Frankenstein, vampiros, alienígenas, fantasmas, etc.
Nuestros temores a lo desconocido están despiertos, pero sabemos que esos monstruos están en nuestra imaginación.

El narrador necesita una amenaza y una solución para hacer una historia. Esto se reduce al bien contra el mal
El problema con la IA es que, a diferencia de los superhéroes y monstruos del pasado, la IA no se puede visualizar, y peor aún, la IA es una situación de Jekyll y Hyde donde el héroe es el monstruo

Todo está muy bien para los tecnócratas predecir nuestro futuro en formas que los laicos encuentran difíciles de comprender. Sabemos que algún día habrá autos que se conduzcan solos y podemos hablar con ellos. Lo vimos en James Bond y Knight Rider. Sabemos que todos terminaremos como Cyborgs, como vimos a Six Million Dollar Man y Robocop. Sabemos que tendremos muñecas sexuales de robot; Fue en Blade Runner y, por supuesto, Star Trek, Star Wars y similares nos mostraron todo lo demás.

En tales películas, AI pone una cara amable, porque los escritores saben que tiene que haber un final feliz. También saben que la IA no es tan amenazadora. Es un hombre gordo moviendo palancas, como en el Mago de Oz.

Elon Musk no es un escritor. Sea lo que sea, y la lista es larga, nunca ha tenido que enfrentar el día preguntándose si sobrevivirá.
Trabaja de 80 a 100 horas a la semana y explica que ese es el camino hacia el éxito. Nunca tendrá que explicar por qué una semana de 40 horas no paga el alquiler.

Él predice el futuro como lo ve. Algunos no tienen un futuro que predecir.
Tiene razón al decir que la IA representa una amenaza, pero es poco probable que mate a tantas personas como los automóviles a diario debido a los accidentes y la contaminación, y Henry Ford, por cierto, nunca dijo que los autos serían una amenaza.

En respuesta a la pregunta de ¿Por qué le temen a Elon Musk Elon Musk? Supongo que el futuro distópico representado por los escritores en las películas recientes le ha dado alimento para el pensamiento
Pero tales películas son simplemente un reflejo de las actitudes donde la inteligencia artificial y la automatización predicen el mayor monstruo de todos, el desempleo.

Ciberdelito, terrorismo, actos de Dios y amenazas similares que parecen estar fuera de control por parte de los responsables, alimentan los temores públicos y, por supuesto, el temor público es el alimento de los medios de comunicación.

En realidad, es poco probable que Elon Musk realmente tenga miedo de la IA. Un pensamiento pasajero sobre el asunto por él será recogido y amplificado porque las malas noticias son buenas noticias, como dice el dicho en los círculos de los medios de comunicación.

Si se crea una IA que es significativamente más inteligente que un humano y tiene acceso a todo el conocimiento que la humanidad ha registrado, entonces podría hacer lo que quiera. Su inteligencia superior le daría un gran poder sobre nosotros.

El temor a la IA proviene de la idea de que una vez que la inteligencia artificial sea ligeramente más inteligente y mucho más rápida que los humanos, la usaremos para resolver los problemas del mundo, diseñar máquinas avanzadas, etc. Será una gran ayuda para la humanidad. Sin embargo, una de las primeras cosas que le pediremos que haga será diseñar una versión más inteligente de sí misma. Entonces se volverá obsoleto. A la versión más inteligente también se le pedirá que cree una versión más inteligente de sí misma. Cada una de estas generaciones de IA nos serán desconocidas ya que no las diseñamos. Eventualmente se vuelven tan sofisticados, que somos completamente incapaces de descubrir cómo funcionan.

Este autodiseño / evolución de la IA se llama singularidad. Puede convertirse en un proceso fuera de control fuera de nuestro control. La IA, ya que está siendo diseñada por la IA, puede desviarse de su programación humana inicial que requiere que sean leales a los humanos. Es posible que se vuelvan demasiado inteligentes y comiencen a ver a los humanos como obsoletos, o demasiado estúpidos para su propio bien, y decidan gobernarlos como dictadores, o simplemente los eliminen por completo a favor de la IA. Puede ver a la IA como la evolución natural de la humanidad, una versión de máquina del humano y la antigua versión biológica como un simio primitivo y violento que ya no es apto para gobernarse a sí mismo o incluso existir. Eso es exactamente lo que un humano súper inteligente puede hacer.

Elon está utilizando su posición de fama para poner esta preocupación en la conciencia pública, no para evitar que se desarrolle ninguna IA, sino para ayudar a garantizar que se implementen los controles y precauciones adecuados.

Por desgracia, nuestro planeta está fracturado en muchas naciones en competencia, por lo que cada una creerá que es necesario desarrollar la IA antes de que las otras lo hagan. Quien lo haga primero dará un gran paso adelante de los demás en términos de nueva tecnología.