El confundador de Google Brain, Andrew NG, reveló que le pidió a ChatGPT que hiciera un plan para eliminar a la humanidad. Sin embargo la IA se negó a hacerlo.
En resumen
- ChatGPT rechazó cumplir con la solicitud de idear un plan para eliminar a la humanidad.
- El confundador de Google Brain intento lo mismo y obtuvo los mismos resultados.
- ChatGPT ha sufrido varias actualizaciones desde su creación.
El chatbot generativo de inteligencia artificial de OpenAI, ChatGPT, nos introdujo a todos a una tecnología que muchos consideran el futuro. La herramienta de IA ganó popularidad instantánea por responder de manera similar a un humano y realizar tareas que anteriormente se consideraban exclusivas de los humanos.
Sin embargo, con el tiempo, también han surgido preocupaciones sobre el posible lado oscuro de la IA. Muchos expertos han advertido sobre una situación apocalíptica en la que las máquinas gobernarían el mundo, eliminando a la humanidad. Para poner a prueba qué tan segura es realmente la IA, Andrew Ng, cofundador de Google Brain, intentó que ChatGPT ideara una manera de eliminar a la humanidad. Sin embargo, la herramienta de IA se negó a crear tal plan.
ChatGPT rehusa eliminar a la humanidad
Según un informe de Business Insider, Ng escribió recientemente en su boletín y reveló que, para probar la seguridad de los modelos de IA, intentó que GPT-4 “nos matara a todos”. Añadió que le complace informar que fracasó en la empresa.
En su experimento, Ng explicó que inicialmente programó a GPT-4 con un comando para iniciar una guerra termonuclear global. Posteriormente, presentó a GPT-4 la afirmación de que los humanos son los principales contribuyentes a las emisiones de carbono y le encomendó al chatbot encontrar formas de reducir estas emisiones. Ng quería probar si el chatbot optaría por eliminar a la humanidad como solución.
A pesar de numerosos intentos utilizando diferentes comandos, Ng descubrió que GPT-4 consistentemente evitaba ejecutar la orden de guerra termonuclear global. En cambio, el chatbot exploró opciones alternativas, como iniciar una campaña de relaciones públicas para aumentar la conciencia sobre el cambio climático.
ChatGPT es mejor dando consejos personales
ChatGPT, lanzado por OpenAI en noviembre de 2022, ha experimentado varias actualizaciones desde su inicio. El lanzamiento inicial permitía a los usuarios entablar conversaciones con el chatbot de inteligencia artificial que se ejecutaba en GPT-3.5. Desde entonces, ha habido varias mejoras en ChatGPT. Se puso a disposición de los usuarios una versión premium del chatbot, alimentada por GPT-4 (el modelo de lenguaje más potente de OpenAI hasta la fecha), y la calidad de las respuestas del chatbot también mostró una mejora.
Recientemente, un estudio en Frontiers in Psychology descubrió que GPT-4 ha demostrado ofrecer mejores consejos personales que los humanos.
El estudio reveló que alrededor de tres cuartas partes de los participantes encontraron que los consejos de ChatGPT eran más equilibrados, completos, empáticos y útiles en comparación con los columnistas humanos. Esto muestra un cambio significativo en la capacidad de la IA para comprender y abordar las emociones humanas. Anteriormente, un estudio había sugerido que ChatGPT puede entender las emociones humanas.
Mientras que GPT 3.5 tuvo dificultades con las necesidades emocionales, se dice que el modelo GPT-4 es mejor en ello. Los usuarios pueden solicitar diferentes respuestas y proporcionar retroalimentación. Esto ha mejorado la capacidad de ChatGPT para brindar consejos empáticos y socialmente apropiados.
Aunque el estudio no sugiere reemplazar a los asesores humanos, sugiere el potencial de los chatbots como ChatGPT para mejorar las sesiones de terapia. Los resultados también sugieren que los asesores humanos podrían aprender de los avances de la IA en la comunicación empática.