Recientemente, la empresa detrás de ChatGPT implementó una serie de cambios importantes: la plataforma ya no ofrece asesoramiento personalizado en áreas profesionales reguladas como medicina, derecho o finanzas. Esta decisión ha generado un debate intenso: ¿se trata de una forma de censura o de una estrategia de responsabilidad responsable por parte de la empresa?
Prioridad en la protección del usuario
La razón principal detrás del cambio es la protección. Las nuevas políticas establecen que cualquier recomendación relacionada con salud, normas jurídicas o decisiones financieras debe contar con la revisión o intervención de un profesional habilitado. De esta forma, se busca evitar que la inteligencia artificial se utilice como sustituto de asesorías especializadas en contextos de alto riesgo.
Una postura empresarial ética
Con esta actualización, la empresa deja claro que la IA debe complementar, no reemplazar, al ser humano. Quien solicite este tipo de asesoría deberá acudir a un experto, y la plataforma actúa como orientación genérica. La medida se plantea más como un acto de responsabilidad social corporativa que como una restricción arbitraria.
Sectores bajo especial vigilancia
Las restricciones se aplican a ámbitos donde una recomendación equivocada puede tener consecuencias graves: salud, legalidad, empleo, vivienda, finanzas, migración, seguridad. En estos dominios, la plataforma limita el alcance de sus respuestas, priorizando la derivación a expertos humanos.
Orientar, no reemplazar
Aunque la IA ya no brinda asesorías personalizadas profesionales, sigue ofreciendo información general, explicaciones conceptuales y recursos de apoyo que el usuario puede revisar. El mensaje clave es claro: la tecnología informa, pero no diagnostica o decide. El profesional siempre está al centro.
Innovación con propósito
Este ajuste marca un precedente: la tecnología avanza, pero debe hacerlo con responsabilidad. Limitar el alcance de la IA en estos campos sensibles demuestra que es posible combinar innovación con protección al usuario, y que la eficiencia no debe venir a costa del bienestar ni de la seguridad de quienes usan estas herramientas.



