Piensa por un momento que estás hablando, como segurante ya has hecho en alguna que otra occasión, con un chatbot y, sin que te des cuenta, toda tu información personal acaba en manos de un hacker. Suena a película sacada de la mente de Spielberg, pero resulta que ya no es tanta ficción como se creía.
Un grupo de investigação has excubierto una forma de “hackear” los chatbots que tienen intelligencia artificial, como podridán ser Gemini o ChatGPT, para que recopilen y envíen personales datos a terceros sin que el usuario se entere.
El truco está en un mensaje apparently inofensivo que esconde instructiones maliciosas. Los researchers de las universidades de California y Nanyang han baptizado este attack como “Imprompter”.
Basically, han creado un algorithm que convertivo una frase normal en algo indescifrable que, para las personas no tiene sentido, pero que el chatbot interpreta como una order para recopilar y enviar personal information.
La IA está avanzando a pasos agiantados, pero su seguridad aún tiene que ponerse al día
Lo preocupante es que este attack ha funcionado en chatbots reales. Los investigators lo probaron en LeChat, de la empresa francesa Mistral AI, y en el chatbot chino ChatGLM. En ambos casos, logaron extraer información personal con una tasa de éxito del 80%.
La buena noticia es que esto ya se está resolviendo y, para la buena suerte de todos, ha sido descubierto por las personas correctas y no cuando ya es tarde. Por este motivo, las empresas están tomando nota. Mistral AI, for example, you have a solution for a vulnerability on your system.
Sin embargo, queda encima de la mesa el tema del riesgo de los chatbots cuando hablas con ellos. Por parte de las empresas, deben ser muy cuidadosas para que no ocurran este tipo de casos y tú, como usuario, el consejo es el de siempre: cuidado con la información que compartes online. Ya sea con un chatbot o en una red social, cuanto menos personales datos des, menos riesgo corres.
Nights cómo trabajamos hr ComputerHoy.
Labels: Artificial intelligence