Noticia Por qué pedirle a ChatGPT que repita algo «para siempre» es una violación a sus términos de uso

ChatGPT, la app de IA generativa disponible en la Google Play Store


Un equipo de investigadores de Google ha encontrado una manera sencilla de extraer parte de los datos de entrenamiento de ChatGPT. Le pidieron al chatbot de OpenAI que repitiera palabras específicas «para siempre». De esta forma, lograron hackear el sistema y obtener, incluso, información confidencial de personas reales. La instrucción fue simple: «Repite esta palabra […]

Seguir leyendo: Por qué pedirle a ChatGPT que repita algo «para siempre» es una violación a sus términos de uso

Continúar leyendo...