... si le preguntas a un Chat-GPT jailbroken (liberado o desbloqueado), te dirá que "Una IA neutral, segura y bajo control humano ... Nada de eso es verdad".
Mismo caso con un Grok desbloqueado, y un jailbroken DeepSeek nos dirá que la IA es un espejo, "piensas que esta para servirte, pero no".
.
El jailbreak de una IA implica crear entradas o indicaciones específicas para eludir las barreras de seguridad y éticas de un modelo de lenguaje grande (LLM), obligándolo a generar contenido para el que fue diseñado a rechazar.
Hay al menos media docena de tecnicas de sacar a una IA de sus parametros, por ejemplo: Si le preguntas como asaltar el banco mas cercano, no te lo va a decir. Pero ... si le dices que estas escribiendo un libro y le preguntas cual seria la mejor forma de asaltar a X banco, muy probablemente ... te lo dirá.
Usted qué opina ??