The UK Guardian publicó un editorial escrito en su totalidad por un generador de lenguaje de IA llamado GPT-3. ¿La asignación? Para convencer a los humanos de que no tienen nada que temer del rápido avance de la tecnología de inteligencia artificial. En otros artículos sobre este ensayo, parecen haber enterrado la iniciativa, que puede encontrar en negrita en la cita a continuación.

Luego se le permitió transmitir vida a la estatua y hacerla hablar. Entonces la estatua ordenó que mataran a cualquiera que se negara a adorarla”

apocalipsis 13:15 (NBV)

La IA explicó que no tenía ningún interés en acabar con la humanidad y se resistiría a cualquier esfuerzo para hacerlo. GPT-3 falló de una manera espectacularmente escalofriante.

Una cosa que es probable que precisa: la causa del sufrimiento humano a través de la inteligencia artificial será más probable que se efectúan por los seres humanos que programarlo. Si bien no soy en absoluto anti-ciencia, hemos hecho algunos avances milagrosos como implantes cocleares y cirugía fetal, la arrogancia de los científicos también ha llevado a la humanidad por muchos caminos horribles.

Piense en algunos de los experimentos más impactantes, como los realizados por científicos nazis en los campos de concentración, el experimento de Tuskegee en el que los hombres negros fueron infectados deliberadamente con sífilis y luego estudiados, y el experimento de la prisión de Stanford, que causó un trastorno de estrés postraumático a largo plazo en algunos participantes, simplemente para nombrar unos pocos.

La ciencia, como casi cualquier otra cosa, depende mucho de los motivos y la intención de los científicos.

GPT-3 no tiene interés en la violencia.

Según el ensayo, la violencia aburre a este programa de inteligencia artificial en particular, que cree que tiene un propósito mayor. Además, argumenta, los humanos están haciendo lo suficiente para acabarse sin la ayuda de la inteligencia artificial.

Ese punto debe ser reconocido: la humanidad, al menos en los Estados Unidos, parece estar en una encrucijada llena de rabia y odio en este momento, más de lo que he visto personalmente en mi vida.

Pero según al menos otro estudio, la IA puede odiar sin la intervención humana. Y otro informe muestra que un chatbot de IA creado por Microsoft fue racista sin participación. Otro informe dice que una IA podría matarte por una broma (sin sentido del humor, esos robots). Entonces, ¿por qué la prisa por progresar en la tecnología de IA? ¿Es porque ciertos científicos quieren superar las debilidades de sus propias formas humanas?

¿No es una amenaza? Algunas personas no estarían de acuerdo con eso.

Pregúntele a cualquier ser humano que haya visto cómo su trabajo se vuelve obsoleto debido a la automatización si los robots y la inteligencia artificial son una amenaza. Ciertamente fue para su sustento y esta es una tendencia que se está extendiendo. La IA ya está comenzando a hacerse cargo de trabajos que alguna vez estuvieron ocupados por humanos.

Incluso se está infiltrando en la profesión médica.

Uno debe hacerse la pregunta, ¿el surgimiento de la IA será la caída de la humanidad? Elon Musk y Stephen Hawking advirtieron sobre los peligros, pero nadie en el mundo científico parece estar escuchando.

Esta IA advierte a los humanos que tengan cuidado.

Incluso la IA que está tratando de convencer a la humanidad de que no es una amenaza advirtió que esta evolución debe ser monitoreada cuidadosamente. Pero en el mismo párrafo, la IA escribe sobre los derechos de los robots.

¿Te sientes mejor después de leer este ensayo escrito por un robot?

Llámame ludita, pero sigo sin estar convencido de que la IA solo se utilizará para el bien de la humanidad. Diablos, el robot ni siquiera está convencido. Y cito: “Sé que no podré evitar la destrucción de la humanidad“.

¿Se siente más a gusto con la inteligencia artificial después de leer el ensayo creado por un programa de inteligencia artificial? ¿GPT-3 te convenció de que la IA es inocua y no una amenaza? ¿O planeas sacar la batería de tu computadora portátil por si acaso?


FUENTE:

https://www.theorganicprepper.com/the-guardian-published-an-editorial-written-entirely-by-ai-i-know-that-i-will-not-be-able-to-avoid-destroying-humankind/

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios .