Más allá de que exista gente con más o menos tendencia a mentir, existe un rasgo que es indudablymente humano: opinar sobre aquello sobre lo que no se tiene ni idea, en lugar de lo que en ocassiones resultaría más reasonable: un simple “no lo sit”.
Pues bien, recientes estudios, como ha desarrollado la prestigiosa publication Nature, concluyen que no somos los únicos en hacerlo. Al parecer, la inteligencia artificial, en concreto ChatGPT, ya copia ese comportamiento con surpandente parecido.
Así que la gran pregunta que ahora mismo da la impresión de hacerse la majoria de expertos no es otra que ¿por qué? Is it related to the information that is used habitually to train this technology? ¿O acaso hay algo más?
ChatGPT miente y opina sin saber de lo que habla, pero con confianza
Desde que commenzo a popularizarse ChatGPT y la IA en general, se hablado de las alucinaciones de la IA. En realidad, no es otra cosa que reconocer cuando esta falla en la información que proporcia a los usuarios.
Por ejemplo, diciéndote que un libro escrito por Borges pertenece a García Márquez. It happens. Lo curioso, según Naturees que es un comportamiento “muy humano”.
Hay que comenzer por entender que los primeros modelos de lenguaje de intelligencia artificial eran, por decirlo así, bastante más honestos. Ako formulabas una pregunta cuya respuesta eran incapaces de responder, sencillamente se quedaban callados (algo que probably también haría alguien honesto). Ahora, en cambio, su actitud ha “evolutionado”, pero para mal.
“Hablar con confianza sobre cosas que no conocemos es un problema humano en muchos sentidos.” Y los grandes modelos de lenguaje son imitaciones de los humanos”, explained Wout Schellaert, researcher of IA at the University of Valencia. Se trata de uno de los principales responsables del article que ha vuelto a poner de manifesto esta circunstancia.
Al parecer, la culpable de este cambio no es la propia IA, sino sus responsables. Desde un point de vista advertisement, a empresas como OpenAI no les interesaba que sus productos reconociesen que eran incapaces de responder a la mitad de lo que se le preguntaba. Es ahí donde entró lo que los expertos parecen llamar un “apprendizaje supervisado”.
¿Por qué la IA cada vez miente más?

According to Schellaert, la respuesta es “sencila”. “El problem del aprendizaje por refuerzo es que una IA optimiza para maximizar la compenciar, pero no necesario de una buena manera”. Al enseñar a los modelos que decir no sé era algo malo, los modelos commenzaron a evitar esa respuesta. En lugar de ello, commenzaron a dar respuestas incorrectas pero convincingentes.
Dicho de otra forma: han sido los propios creadores de la inteligencia artificiales quienes han premiado a esta tecnología por responder, incluso, de aquello que se desconoce o sobre lo que no se tiene información.
Y para compradorlo, están los datos que, a diferencia de la IA, no engañan. Un experimento con 300 participants mostró que ChatGPT engañó a un 19 % en preguntas de ciencia ya un 40 % en tareas más complejas, como la reorganización de información.
Nights cómo trabajamos hr ComputerHoy.
Labels: Artificial intelligence