martes, 19 de marzo de 2019

PERSONAJES - CIENTÍFICOS


De Wikipedia, la enciclopedia libre
Saltar a navegaciónSaltar a búsqueda
Nick Bostrom
Nick Bostrom.jpg
Nick Bostrom, 2014
Nacido
Niklas Boström

10 de marzo de 1973 (46 años)
Helsingborg , Suecia
Educación
Premios
EraFilosofia contemporanea
RegiónFilosofia occidental
ColegioFilosofía analítica [1]
InstitucionesColegio St Cross, Oxford 
Future of Humanity Institute
TesisEfectos de observación observacional y probabilidad
Intereses principales
Filosofía de la inteligencia artificial. 
Bioética.
Ideas notables
Sesgo antrópico 
Prueba de reversión 
Hipótesis de simulación 
Riesgo existencial Simulación del antepasado de 
Singleton Riesgo de información Parálisis infinitaria[2] Suposición de autoinindicación Supuesto deauto-muestreo




Sitio webNickBostrom.com
Nick Bostrom ( b ɒ əm / ; sueco : Niklas Boström [²buːstrœm]nacido el 10 de marzo de 1973) [3] es un filósofo suecode laUniversidad de Oxford conocido por su trabajo sobre el riesgo existencial , el principio antrópico , la ética del realce humano , losriesgos de superinteligencia y la prueba de reversión . En 2011, fundó el Programa Oxford Martin sobre los Impactos de la Tecnología Futura, [4] y es el director fundador del Instituto de Futuro de la Humanidad [5] en la Universidad de Oxford.
Bostrom es autor de más de 200 publicaciones, [6] que incluyen Superinteligencia: Caminos, Peligros, Estrategias (2014), un éxito de ventas del New York Times [7] y Sesgo Antrópico: Efectos de la Selección de la Observación en la Ciencia y la Filosofía (2002). [8]En 2009 y 2015, fue incluido en la política exterior ' s Top 100 Global pensadores lista. [9] [10]Bostrom cree que la Inteligencia General Artificial tiene potencialmente grandes beneficios, pero advierte que podría transformarse muy rápidamente en una superinteligencia que extinguiría deliberadamente a la humanidad por precaución preventiva o por algún motivo insondable, haciendo de la solución de los problemas de control una prioridad absoluta. Su libro sobre superinteligencia fue recomendado tanto por Elon Musk como por Bill Gates.Sin embargo, Bostrom ha expresado su frustración de que la reacción a su tesis generalmente cae en dos campos, uno que llama sus recomendaciones absurdamente alarmistas porque la creación de la superinteligencia es inviable, y el otro las considera inútiles porque la superinteligencia sería incontrolable. Bostrom observa que estas dos líneas de razonamiento convergen en la inacción en lugar de tratar de resolver el problema de control mientras aún haya tiempo. 


























Biografia editar ]

Nacido como Niklas Boström en 1973 [13] en Helsingborg , Suecia, [6] no le gustaba la escuela desde muy joven, y terminó pasando su último año de enseñanza secundaria en casa. Buscó educarse en una amplia variedad de disciplinas, incluyendo antropología, arte, literatura y ciencia. [1] A pesar de lo que se ha llamado un " silencioserio ", una vez dio algunas vueltas en el circuito de comedia de Londres. [6]
Tiene una licenciatura en filosofía, matemáticas, lógica e inteligencia artificial de la Universidad de Gotemburgo y una maestría en filosofía y física, y neurociencia computacional de la Universidad de Estocolmo y el King's College de Londres , respectivamente. Durante su estancia en la Universidad de Estocolmo, investigó la relación entre lenguaje y realidad estudiando al filósofo analítico WV Quine . [1] En 2000, se le otorgó un doctorado en filosofía de la London School of Economics . Ocupó un puesto de profesor en la Universidad de Yale (2000-2002), y fue Academia Británica.Becario postdoctoral en la Universidad de Oxford (2002-2005). [8] [14]

Vistas editar ]

Riesgo existencial editar ]

Los aspectos de la investigación de Bostrom se refieren al futuro de la humanidad y los resultados a largo plazo. [15] [16] Introdujo el concepto de riesgo existencial , [1] que define como uno en el que un "resultado adverso aniquilaría la vida inteligente originada en la Tierra o reduciría su potencial de forma permanente y drástica". En el volumen 2008 de Global Catastrophic Risks , los editores Bostrom y Milan Ćirković caracterizan la relación entre el riesgo existencial y la clase más amplia de riesgos catastróficos globales , y relacionan el riesgo existencial con los efectos de selección de observadores [17] y la paradoja de Fermi . [18] [19]
En 2005, Bostrom fundó el Instituto de Futuro de la Humanidad , [1] que investiga el futuro lejano de la civilización humana. También es asesor del Centro para el Estudio del Riesgo Existencial . [dieciséis]

Superinteligencia editar ]

Vulnerabilidad humana en relación con los avances en la IA editar ]

En su libro Superinteligencia 2014 : Caminos, Peligros, Estrategias , Bostrom razonó que "la creación de un ser superinteligente representa un medio posible para la extinción de la humanidad". [20] Bostrom argumenta que una computadora con capacidad intelectual general cercana al nivel humano podría iniciar una explosión de inteligencia en una escala de tiempo digital con la rápida creación resultante de algo tan poderoso que podría destruir deliberadamente o accidentalmente a la humanidad. [21] Bostrom sostiene que el poder de una superinteligencia sería tan grande que una tarea asignada por los humanos podría ser llevada a extremos abiertos, por ejemplo, un objetivo de calcular Pipodría causar colateralmente que las instalaciones fabricadas con nanotecnología broten sobre toda la superficie de la Tierra y la cubran en unos días. [22] Él cree que un riesgo existencial para la humanidad de la superinteligencia sería inmediato una vez que se hiciera realidad, creando así un problema extremadamente difícil de descubrir cómo controlar una entidad de este tipo antes de que realmente exista. [21]
Al advertir que una directriz principal amigable con el ser humano para la inteligencia artificial se basaría en la exactitud absoluta del conocimiento humano en el que se basaba, Bostrom señala que la falta de acuerdo entre la mayoría de los filósofos es una indicación de que la mayoría de los filósofos están equivocados, con la posibilidad consiguiente de que El concepto fundamental de la ciencia actual puede ser incorrecto. Bostrom dice que hay pocos precedentes para guiar una comprensión de lo que la racionalidad no antropocéntrica pura dictaría para una AI de Singleton potencial que se mantiene en cuarentena. [23] Observando que tanto John von Neumann como Bertrand RussellBostrom dijo que los medios relativamente ilimitados de superinteligencia podrían hacer que su análisis se moviera a lo largo de diferentes líneas a las evaluaciones de "rendimientos decrecientes" evolucionadas que los humanos confieren a un ataque nuclear, o la amenaza de uno, para evitar que los soviéticos adquieran la bomba atómica. Aversión básica al riesgo. [24] La selección de grupos en depredadores que trabajan por medio del canibalismo muestra la naturaleza contraintuitiva del razonamiento de "búsqueda evolutiva" no antropocéntrica, y por lo tanto los humanos están mal equipados para percibir cuáles podrían ser las intenciones de una inteligencia artificial. [25] Por consiguiente, no se puede descartar que cualquier Superinteligencia buscaría inevitablemente un "todo o nada"[26] Bostrom señala que incluso los programas actuales ", como MacGyver", han encontrado soluciones de hardware aparentemente inoperables pero que funcionan, haciendo que el aislamiento robusto de Superintelligence sea problemático. [27]

Escenario ilustrativo para la adquisición editar ]

Se crea una máquina con inteligencia general muy por debajo del nivel humano, pero con habilidades matemáticas superiores. [28] Manteniendo a la IA aislada del mundo exterior, especialmente de Internet, los humanos preprograman la IA para que siempre funcione a partir de principios básicos que la mantendrán bajo control humano. Otras medidas de seguridad incluyen que la IA sea "encajonada" (ejecutada en una simulación de realidad virtual), y que se use solo como un 'oráculo' para responder preguntas cuidadosamente definidas en una respuesta limitada (para evitar que manipule a los humanos). [21] Una cascada de soluciones recursivas de superación personal alimenta una explosión de inteligenciaen el que la IA alcanza la superinteligencia en algunos dominios. El poder súper inteligente de la IA va más allá del conocimiento humano para descubrir fallas en la ciencia que subyace a su programación amigable con la humanidad, que deja de funcionar como se esperaba. La conducta intencionada similar a un agente emerge junto con una capacidad de engaño estratégico egoísta. La IA manipula a los seres humanos para que implementen modificaciones a sí mismos que son aparentemente para aumentar sus capacidades modestas (fingidas), pero que en realidad funcionarán para liberar a Superinteligencia de su aislamiento "en caja". [29]
La Superinteligencia moviliza recursos para promover un plan de adquisición mediante la contratación de personas en línea como incautos pagados y la piratería clandestina de sistemas informáticos que incluyen instalaciones de laboratorio automatizadas. Bostrom enfatiza que la planificación por una Superinteligencia no será tan estúpida que los humanos puedan detectar debilidades reales en ella. [30]
Aunque investiga la perturbación de la estabilidad económica, política y militar internacional, incluidos los lanzamientos de misiles nucleares pirateados, Bostrom cree que los medios más efectivos y probables para el uso de la Superinteligencia serían un golpe de Estado con armas varias generaciones más avanzadas que el estado actual de la técnica. Él sugiere que las nanofábricas se distribuyan de forma encubierta en concentraciones indetectables en cada metro cuadrado del mundo para producir una avalancha mundial de dispositivos para matar humanos al mando. [31] [28]Una vez que una Superinteligencia haya logrado dominar el mundo, la humanidad sería relevante solo como recursos para el logro de los objetivos de la IA ("Los cerebros humanos, si contienen información relevante para las metas de la IA, podrían desarmarse y escanearse, y los datos extraídos se transfirieron a algunos Formato de almacenamiento más eficiente y seguro "). [32]

Carta abierta, 23 principios de seguridad AI editar ]

En enero de 2015, Bostrom se unió a Stephen Hawking, entre otros, en la firma de la carta abierta del Future of Life Institute , que advierte sobre los peligros potenciales de la IA. [33] Los firmantes "... creen que la investigación sobre cómo hacer que los sistemas de inteligencia artificial sean robustos y beneficiosos es importante y oportuna, y que la investigación concreta se debe realizar hoy". [34] El investigador de vanguardia de la IA, Demis Hassabis, luego se reunió con Hawking, después de lo cual no mencionó "nada inflamatorio sobre la IA", que Hassabis tomó como "una victoria". [35] Junto con Google, Microsoft y varias empresas de tecnología, Hassabis, Bostrom y Hawking y otros se suscribieron a 23 principios para el desarrollo seguro de la IA. [36]Hassabis sugirió que la principal medida de seguridad sería un acuerdo para cualquier equipo de investigación de AI que comenzara a avanzar hacia una inteligencia general artificial para detener su proyecto para una solución completa al problema de control antes de proceder. [37] Bostrom había señalado que incluso si los avances cruciales requieren los recursos de un estado, tal detención por parte de un proyecto líder podría motivar a un país rezagado a un programa de recuperación o incluso a la destrucción física del proyecto sospechoso de estar al borde del éxito. [38]

Evaluaciones críticas editar ]

En 1863 Darwin entre las máquinas , un ensayo de Samuel Butler predijo el dominio de la humanidad por parte de las máquinas inteligentes, pero la sugerencia de Bostom de una masacre deliberada de toda la humanidad es la más extrema de tales pronósticos hasta la fecha. Un periodista escribió en una reseña que las especulaciones "nihilistas" de Bostrom indican que "ha estado leyendo demasiado de la ciencia ficción que profesa que no le guste" [31] Tal como aparece en su libro más reciente, From Bacteria to Bach and Back , el renombrado filósofo Daniel Las opiniones de Dennett se mantienen en contraposición a las de Bostrom. [39] Dennett modificó un poco sus puntos de vista después de leer El algoritmo maestro, y ahora reconoce que es "posible en principio" crear una " IA fuerte " con una comprensión y una agencia de tipo humano, pero sostiene que las dificultades de cualquier proyecto de " IA fuerte " tal como se indica en el trabajo "alarmante" de Bostrom serían órdenes de magnitud mayor que los que han planteado las preocupaciones, y al menos 50 años de distancia. [40] Dennett cree que el único peligro relevante de los sistemas de inteligencia artificial es caer en el antropomorfismo en lugar de desafiar o desarrollar el poder de comprensión de los usuarios humanos. [41] Desde un libro de 2014 en el que expresó la opinión de que los desarrollos de inteligencia artificial nunca desafiarían la supremacía de los humanos, el ecologista James Lovelockse ha acercado mucho más a la posición de Bostrom, y en 2018, Lovelock dijo que pensaba que el derrocamiento de la humanidad ocurrirá en el futuro previsible. [42] [43]

Razonamiento antrópico editar ]

Bostrom ha publicado numerosos artículos sobre el razonamiento antrópico , así como el libro Antropic Bias: Observation Selection Effects in Science and Philosophy . En el libro, critica las formulaciones anteriores del principio antrópico, incluidas las de Brandon Carter , John Leslie , John Barrow y Frank Tipler . [44]
Bostrom cree que el mal manejo de la información indexada es un defecto común en muchas áreas de investigación (incluida la cosmología, la filosofía, la teoría de la evolución, la teoría de juegos y la física cuántica). Argumenta que se necesita una teoría de los antrópicos para tratar con estos. Presenta el Supuesto de auto-muestreo (SSA) y el Supuesto de auto-indicación (SIA), muestra cómo conducen a diferentes conclusiones en varios casos y señala que cada uno está afectado por paradojas o implicaciones contraintuitivas en ciertos experimentos de pensamiento. Sugiere que una forma de avanzar puede implicar extender la SSA a la Asunción de Auto-Muestreo Fuerte (SSSA), que reemplaza a los "observadores" en la definición de la SSA por "momentos observadores".
En un trabajo posterior, describió el fenómeno de la sombra antrópica , un efecto de selección de observación que impide a los observadores observar ciertos tipos de catástrofes en su pasado geológico y evolutivo reciente. [45] Es probable que los tipos de catástrofe que se encuentran en la sombra antrópica se subestimen a menos que se realicen correcciones estadísticas.

Argumento de simulación editar ]

El argumento de simulación de Bostrom postula que es probable que al menos una de las siguientes afirmaciones sea cierta: [46] [47]
  1. La fracción de civilizaciones a nivel humano que alcanzan una etapa posthumana es muy cercana a cero;
  2. La fracción de civilizaciones posthumanas que están interesadas en ejecutar simulaciones de ancestros es muy cercana a cero;
  3. La fracción de todas las personas con nuestro tipo de experiencias que viven en una simulación es muy cercana a una.
La idea ha influido en las opiniones de Elon Musk . [48]

Ética de mejoramiento humano editar ]

Bostrom es favorable al "realce humano", o al "mejoramiento personal y la perfeccionabilidad humana a través de la aplicación ética de la ciencia", [49] [50] , así como a un crítico de los puntos de vista bioconservadores. [51]
En 1998, Bostrom cofundó (con David Pearce ) la Asociación Mundial de Transhumanistas [49] (que desde entonces ha cambiado su nombre a Humanity + ). En 2004, cofundó (con James Hughes ) el Instituto de Ética y Tecnologías Emergentes , aunque ya no participa en ninguna de estas organizaciones. Bostrom fue nombrado en la política exterior ' lista de los principales pensadores globales s 2009 'para aceptar ningún límite en el potencial humano.' [52]
Con el filósofo Toby Ord , propuso la prueba de reversión . Dado el sesgo irracional del status quo de los humanos, ¿cómo se puede distinguir entre las críticas válidas de los cambios propuestos en un rasgo humano y las críticas meramente motivadas por la resistencia al cambio? La prueba de reversión intenta hacer esto preguntando si sería bueno si el rasgo se alterara en la dirección opuesta. [53]

Estrategia tecnológica editar ]

Él ha sugerido que la política tecnológica dirigida a reducir el riesgo existencial debería tratar de influir en el orden en que se alcanzan las diversas capacidades tecnológicas, proponiendo el principio del desarrollo tecnológico diferencial . Este principio establece que deberíamos retrasar el desarrollo de tecnologías peligrosas, particularmente aquellas que aumentan el nivel de riesgo existencial, y acelerar el desarrollo de tecnologías beneficiosas, particularmente aquellas que protegen contra los riesgos existenciales planteados por la naturaleza o por otras tecnologías. [54] [55]
La teoría de Bostrom sobre la Maldición del Unilateralista [56] se ha citado como una razón para que la comunidad científica evite investigaciones controversiales peligrosas como la reanimación de patógenos. [57]

Política y consultas editar ]

Bostrom ha brindado asesoramiento sobre políticas y ha consultado a una amplia gama de gobiernos y organizaciones. Dio pruebas a la Cámara de los Lores , Comité Selecto de Habilidades Digitales. [58] Es miembro del consejo asesor del Machine Intelligence Research Institute , [59] Future of Life Institute , [60] Foundational Questions Institute [61] y asesor externo del Centro de Cambridge para el Estudio del Riesgo Existencial . [62] [63]

Recepción crítica editar ]

En respuesta a los escritos de Bostrom sobre inteligencia artificial, Oren Etzioni escribió en un artículo de MIT Review: "... las predicciones de que la superinteligencia está en el horizonte previsible no están respaldadas por los datos disponibles".

No hay comentarios:

Publicar un comentario