LessWrong -LessWrong

Menos mal
LessWrong logo.svg
Tipo de sitio
Foro de Internet , blog
Disponible en inglés
Creado por Eliezer Yudkowsky
URL LessWrong.com
Registro Opcional, pero obligatorio para contribuir con contenido
Lanzado 1 de febrero de 2009 ; Hace 12 años ( 2009-02-01 )
Estado actual Activo
Escrito en JavaScript , CSS (impulsado por React y GraphQL )

LessWrong (también escrito Less Wrong ) es un blog y foro comunitariocentrado en la discusión de sesgos cognitivos , filosofía , psicología , economía , racionalidad e inteligencia artificial , entre otros temas.

Objetivo

LessWrong promueve cambios en el estilo de vida que su comunidad cree que conducen a una mayor racionalidad y superación personal . Las publicaciones a menudo se centran en evitar sesgos relacionados con la toma de decisiones y la evaluación de la evidencia. Una sugerencia es el uso del teorema de Bayes como herramienta para la toma de decisiones. También hay un enfoque en las barreras psicológicas que impiden una buena toma de decisiones, incluido el condicionamiento del miedo y los sesgos cognitivos que han sido estudiados por el psicólogo Daniel Kahneman .

LessWrong también se preocupa por el transhumanismo , las amenazas existenciales y la singularidad . El New York Observer señaló que "a pesar de describirse a sí mismo como un foro sobre 'el arte de la racionalidad humana', el grupo de New York Less Wrong  ... está obsesionado con una rama del futurismo que parecería más en casa en un multiplex 3D que en un seminario de posgrado: la amenaza existencial terrible, o, con suerte, la promesa utópica, conocida como la singularidad tecnológica  ... Marcarse a sí mismos como 'racionalistas', como lo ha hecho el equipo Less Wrong, hace que sea mucho más difícil descartarlos como un ' culto del fin del mundo ' ".

Historia

LessWrong se desarrolló a partir de Overcoming Bias , un blog grupal anterior centrado en la racionalidad humana, que comenzó en noviembre de 2006, con el teórico de la inteligencia artificial Eliezer Yudkowsky y el economista Robin Hanson como principales colaboradores. En febrero de 2009, las publicaciones de Yudkowsky se utilizaron como material inicial para crear el blog comunitario LessWrong , y Overcoming Bias se convirtió en el blog personal de Hanson. En 2013, una parte significativa de la comunidad racionalista cambió su enfoque al Slate Star Codex de Scott Alexander .

LessWrong y su movimiento circundante son los temas del libro de 2019 The AI ​​Does Not Hate You , escrito por el ex corresponsal científico de BuzzFeed, Tom Chivers.

Basilisco de Roko

En julio de 2010, el colaborador de LessWrong , Roko, publicó un experimento mental en el sitio en el que un futuro sistema de IA, por lo demás benévolo, tortura a las personas que oyeron hablar de la IA antes de que existiera y no trabajaron incansablemente para hacerla realidad, con el fin de incentivar, dijo. trabaja. Utilizando la teoría de la "decisión atemporal" de Yudkowsky, la publicación afirmó que hacerlo sería beneficioso para la IA, aunque no puede afectar causalmente a las personas en el presente. Esta idea llegó a ser conocida como "el basilisco de Roko ", basada en la idea de Roko de que simplemente escuchar sobre la idea le daría al hipotético sistema de IA mayores incentivos para emplear el chantaje . Yudkowsky eliminó las publicaciones de Roko sobre el tema, diciendo que publicarlo era "estúpido" y que la idea era "un pensamiento genuinamente peligroso", considerándolo como un peligro de información . La discusión sobre el basilisco de Roko fue prohibida en LessWrong durante varios años porque Yudkowsky había declarado que causaba que algunos lectores tuvieran crisis nerviosas . La prohibición se levantó en octubre de 2015.

David Auerbach escribió en Slate "la combinación de ambiciones mesiánicas, estar convencido de su propia infalibilidad y mucho dinero en efectivo nunca funciona bien, independientemente de la ideología, y no espero que Yudkowsky y sus seguidores sean una excepción. Me preocupa menos sobre el basilisco de Roko que sobre las personas que creen que han trascendido la moral convencional ".

El basilisco de Roko fue mencionado en el video musical del músico canadiense Grimes para su canción de 2015 " Flesh Without Blood " a través de un personaje llamado "Rococo Basilisk" que fue descrito por Grimes como "condenado a ser eternamente torturado por una inteligencia artificial, pero también es amable de como María Antonieta ". Después de pensar en este juego de palabras y descubrir que Grimes ya lo había logrado, Elon Musk se puso en contacto con Grimes, lo que los llevó a salir. El concepto también fue mencionado en un episodio del episodio "Reconocimiento facial" de Silicon Valley .

El basilisco se ha comparado con la apuesta de Pascal , un argumento que afirma que una persona racional debería vivir como si Dios existiera y buscar creer en Dios.

Neorreacción

El movimiento neorreaccionario creció primero en LessWrong , atraído por discusiones en el sitio de la eugenesia y la psicología evolutiva . Yudkowsky ha rechazado enérgicamente la neorreacción. En una encuesta entre usuarios de LessWrong en 2016, 28 de 3060 encuestados, o el 0,92%, se identificaron como "neorreaccionarios".

Altruismo efectivo

LessWrong jugó un papel importante en el desarrollo del movimiento de altruismo efectivo (EA), y las dos comunidades están estrechamente entrelazadas. En una encuesta de usuarios de LessWrong en 2016, 664 de 3060 encuestados, o el 21,7%, se identificaron como 'altruistas efectivos'. Una encuesta separada de altruistas efectivos en 2014 reveló que el 31% de los encuestados había oído hablar por primera vez de EA a través de LessWrong , aunque ese número había caído al 8.2% en 2020. Dos de los primeros defensores del altruismo efectivo, Toby Ord y William MacAskill , conocieron al filósofo transhumanista Nick Bostrom en la Universidad de Oxford. La investigación de Bostrom influyó en muchos altruistas eficaces para trabajar en la reducción del riesgo existencial .

Referencias

enlaces externos