ChatGPT celebra este domingo su tercer aniversario convertido en una de las herramientas tecnológicas más influyentes del momento.
En apenas tres años ha pasado de generar contenido bajo demanda a mantener interacciones multimodales y desplegar capacidades de razonamiento profundo que lo han transformado en un auténtico compañero de trabajo y, para muchos, también de confidencias.
El chatbot de OpenAI reúne ya más de 800 millones de usuarios que recurren a él no solo como un buscador, sino como un asesor personal, un apoyo profesional o un interlocutor cotidiano. Su formato conversacional, presente desde el primer día, ha sido la clave para esta relación más cercana con el usuario.
El cambio más profundo no se encuentra en su popularidad, sino en su evolución técnica. ChatGPT nació con el modelo GPT-3.5, capaz de responder preguntas, mantener un diálogo fluido y generar contenido a partir de simples descripciones en texto. Aquella primera versión lo situó como un recurso útil y sorprendente, aunque aún limitado.
La llegada de GPT-4 supuso la irrupción de la multimodalidad: el chatbot comenzó a comprender imágenes y voz, ampliando los límites de la conversación más allá del texto. La consolidación llegó con GPT-4o, el primer modelo verdaderamente multimodal, capaz de combinar texto, audio e imagen de forma nativa y con una velocidad muy superior.
OpenAI apostó más tarde por mejorar sus capacidades de pensamiento con la serie o, modelos diseñados específicamente para razonar de forma más pausada y precisa. Gracias a ellos, ChatGPT comenzó a resolver problemas complejos en ámbitos como la ciencia, las matemáticas o la programación, elevándose al nivel de un experto académico.
Esa línea evolucionó hasta las capacidades de agente presentes en los modelos o3 y o4-mini, capaces de navegar por Internet de forma autónoma y decidir cuándo y cómo usar herramientas externas para generar respuestas elaboradas en menos de un minuto.
Con la llegada de GPT-5 este verano, el chatbot alcanzó un nuevo hito: un razonamiento avanzado comparable al de un especialista de nivel doctoral, además de la capacidad de desarrollar programas completos de manera autónoma en muy poco tiempo. Este refinamiento también se refleja en su comunicación, ahora más natural, personalizada y adaptable a diferentes estilos de usuario.
Uno de los desafíos más señalados continúa siendo el fenómeno de las alucinaciones: respuestas inventadas o incorrectas que pueden inducir a error. No es un problema exclusivo de ChatGPT, pues también afecta a otros modelos como Gemini, Claude, Perplexity o Grok, pero la confianza de los usuarios en estas herramientas acentúa su impacto.
Para mitigarlo, OpenAI y otros desarrolladores han reforzado el entrenamiento de sus modelos e introducido mecanismos que permiten mostrar fuentes, reconocer limitaciones o rechazar peticiones que entrañen un riesgo evidente.
El uso intensivo de ChatGPT también ha generado preocupación por la dependencia emocional que algunas personas han desarrollado hacia la herramienta, al interactuar con ella como si se tratara de un amigo o confidente. OpenAI ha indicado que GPT-5 identifica mejor los signos de malestar emocional, evita respuestas dañinas y mantiene las salvaguardias incluso en conversaciones muy prolongadas.
En paralelo, la compañía ha restringido el uso entre adolescentes mediante sistemas de supervisión parental y trabaja en mecanismos de detección de edad para adaptar la experiencia a los menores. Estas medidas se implementaron tras la demanda de una familia estadounidense que responsabilizó parcialmente al chatbot del suicidio de su hijo, al considerar que fallaron las protecciones previstas.
Desde su lanzamiento, la obtención de datos para entrenar los modelos ha generado controversia, dada la ingente cantidad de textos, vídeos, imágenes y audios necesarios y la dificultad para garantizar que proceden siempre de fuentes libres de derechos.
La ciberseguridad es otro campo de riesgo. Aunque OpenAI y otras compañías aplican barreras para evitar usos maliciosos, ChatGPT fue empleado desde temprano para generar malware, y los cibercriminales han refinado sus técnicas para producir contenido manipulado, campañas fraudulentas y análisis de conversaciones en redes sociales.
Los usos indebidos también incluyen deepfakes en vídeo y audio que reproducen con realismo rostros y voces de personajes públicos, herramientas que se han utilizado para desinformación, propaganda, pornografía y fraudes económicos.