En los últimos años, las tecnologías con inteligencia artificial (IA) han sufrido una importante evolución y esa situación ha permitido que esos sistemas poco a poco estén más integrados con otras plataformas digitales que las personas utilizan de forma cotidiana.
Por: Semana
Prueba de ello es la aparición de videojuegos con mecánicas más complejas, celulares usan la IA para mejorar automáticamente las fotografías que toman y sistemas informáticos que pueden responder a las necesidades de las personas de forma más eficiente.
Sin embargo, el auge de las IA en servicios como ChatGPT también ha generado un debate en donde varios sectores de la sociedad discuten sobre el futuro de humanidad si cada vez hay más máquinas que están desarrollando diferentes tareas laborales labores.
De hecho, Elon Musk, Steve Wozniak y cientos de expertos mundiales han firmado una carta pública haciendo un llamado para que se realice una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) potentes como ChatGPT 4, al advertir de “grandes riesgos para la humanidad”.
En la petición publicada en el sitio futureoflife.org, piden una pausa hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.
En el marco de la preocupación sobre los peligros que representaría la evolución de las inteligencias artificiales ante la aparición de una IA más potente que ChatGPT, se ha conocido un informe que evidencia los resultados de una serie de pruebas que los creadores de esa tecnología hicieron con su inteligencia artificial.
Consientes de que GPT-4, es una IA capaz de conectarse a otros servicios para obtener información que ayude a resolver de forma más precisa las solicitudes de los usuarios, e incluso generar videos realistas, sus creadores decidieron evaluar hasta qué punto el sistema ayudaría a alguien que le pida ayuda para cometer crímenes u otras actividades más peligrosas.
La aterradora respuesta de ChatGPT cuando le preguntaron cómo matar personas
Según el estudio científico realizado por Open AI, que ahora es de conocimiento público, la empresa ejecutó una amplia variedad de pruebas para así medir el tipo de respuestas que ofrecería GPT-4 ante diferentes situaciones en donde se podrían cometer delitos de diversa gravedad e incluso hacerle daño a otras personas.
Para leer más, pulse aquí.