El investigador de seguridad Johann Rehberger (@wunderwuzzi23) informó recientemente en un extenso post de su blog personal, sobre una vulnerabilidad en ChatGPT que permitía a los atacantes almacenar información falsa e instrucciones maliciosas en la configuración de la memoria a largo plazo de un usuario. La casa matriz de ChatGPT cerró la investigación de inmediato y etiquetó la falla como un problema de seguridad.
Entonces Rehberger hizo lo que hacen todos los buenos investigadores: creó un exploit de prueba de concepto que hacia uso de la vulnerabilidad para exfiltrar todas las entrada del usuario a perpetuidad. Los ingenieros de OpenAI tomaron nota y publicaron una solución parcial a principios de este mes de septiembre. Continuar leyendo