El lunes, el creador de Ethereum, Vitalik Buterin, reflexionó sobre su propia visión del “tecnooptimismo”, inspirado en Marc Andreessen, quien opinó sobre la IA en su Manifiesto Tecnooptimista de octubre. Si bien Buterin estuvo de acuerdo con la perspectiva positiva de Andreessen, Buterin también destacó la importancia de cómo se desarrolla la IA y la dirección futura de la tecnología.

Buterin reconoció el riesgo existencial de la inteligencia artificial, incluido el de provocar la extinción de la raza humana.

“Ésta es una afirmación extrema: por mucho daño que pueda causar el peor de los casos: un cambio climático, una pandemia artificial o una guerra nuclear, hay muchas islas de civilización que permanecerían intactas para recoger los pedazos”, afirmó. dicho.

“Pero una IA superinteligente, si decide volverse contra nosotros, bien podría no dejar supervivientes y acabar con la humanidad para siempre”, dijo Buterin. “Ni siquiera Marte puede ser seguro”.

Buterin señaló una encuesta de 2022 realizada por AI Impacts, que decía que entre el 5% y el 10% de los participantes creen que los humanos se enfrentan a la extinción debido a la IA o a la incapacidad de los humanos para controlar la IA, respectivamente. Dijo que un movimiento de código abierto centrado en la seguridad es ideal para liderar el desarrollo de la IA en lugar de corporaciones cerradas y propietarias y fondos de capital de riesgo.

Si queremos un futuro que sea a la vez superinteligente y “humano -uno en el que los seres humanos no sean sólo mascotas, sino que realmente conserven una agencia significativa sobre el mundo- entonces parece que algo como esto es la opción más natural”, dijo.

Lo que se necesita, continuó Buterin, es la intención humana activa de elegir su dirección y su resultado. “La fórmula de ‘maximizar el beneficio’ no les llegará automáticamente”, afirmó.

Buterin dijo que ama la tecnología porque expande el potencial humano, señalando la historia de innovaciones desde herramientas manuales hasta teléfonos inteligentes.

“Creo que estas cosas son profundamente buenas, y que expandir el alcance de la humanidad aún más hacia los planetas y las estrellas es profundamente bueno, porque creo que la humanidad es profundamente buena”, dijo Buterin.

Buterin dijo que si bien cree que la tecnología transformadora conducirá a un futuro más brillante para la humanidad, rechaza la noción de que el mundo debería seguir como está hoy, sólo que con menos codicia y más atención médica pública.

“Hay ciertos tipos de tecnología que hacen que el mundo sea mejor de manera mucho más confiable que otros tipos de tecnología”, dijo Buterin. “Hay ciertos tipos de tecnología que, si se desarrollan, podrían mitigar los impactos negativos de otros tipos de tecnología”.

Buterin advirtió sobre un aumento del autoritarismo digital y la tecnología de vigilancia utilizada contra quienes desafían o disienten del gobierno, controlado por una pequeña camarilla de tecnócratas. Dijo que la mayoría de la gente preferiría que la IA altamente avanzada se retrasara una década en lugar de ser monopolizada por un solo grupo.

“Mi temor básico es que los mismos tipos de tecnologías de gestión que permiten a OpenAI atender a más de cien millones de clientes con 500 empleados también permitan a una élite política de 500 personas, o incluso a una junta directiva de cinco personas, mantener un puño de hierro sobre una empresa. todo el país”, afirmó.

Si bien Buterin dijo que simpatiza con el movimiento de aceleración efectiva (también conocido como “e/acc”), tiene sentimientos encontrados sobre su entusiasmo por la tecnología militar.

“El entusiasmo por la tecnología militar moderna como una fuerza para el bien parece requerir creer que la potencia tecnológica dominante será confiablemente uno de los buenos en la mayoría de los conflictos, ahora y en el futuro”, dijo, citando la idea de que la tecnología militar es buena. porque está siendo construido y controlado por Estados Unidos y Estados Unidos es bueno.

“¿Ser un e/acc requiere ser un maximalista estadounidense, apostar todo a la moral presente y futura del gobierno y al éxito futuro del país?” él dijo.

Buterin advirtió contra dar “poder extremo y opaco” a un pequeño grupo de personas con la esperanza de que lo utilicen sabiamente, prefiriendo en cambio una filosofía de “d/acc” –o defensa, descentralización, democracia y diferencial. Esta mentalidad, dijo, podría adaptarse a altruistas, libertarios, pluralistas, defensores de blockchain y punks solares y lunares efectivos.

“Un mundo que favorece la defensa es un mundo mejor, por muchas razones”, dijo Buterin. “En primer lugar, por supuesto, está el beneficio directo de la seguridad: mueren menos personas, se destruye menos valor económico y se pierde menos tiempo en conflictos.

“Lo que se aprecia menos es que un mundo que favorece la defensa facilita que prosperen formas de gobernanza más sanas, más abiertas y más respetuosas de la libertad”, concluyó.

Si bien enfatizó la necesidad de construir y acelerar, Buterin dijo que la sociedad debería preguntarse periódicamente hacia qué estamos acelerando. Buterin sugirió que el siglo XXI puede ser “el siglo crucial” para la humanidad que podría decidir el destino de la humanidad durante milenios.

“Estos son problemas desafiantes”, dijo Buterin. “Pero espero ver y participar en el gran esfuerzo colectivo de nuestra especie para encontrar las respuestas”.

Editado por Ryan Ozawa.

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada.



Fuente Traducida decrypt.co