¿Qué podemos aprender en marketing del dron militar que mató a su operador?


Según Hamilton, entrenaron el sistema en una simulación para identificar y atacar una amenaza de misiles tierra-aire. El operador tuvo que emitir un comando para eliminar esta amenaza. Sin embargo, el sistema comenzó a notar que a veces un operador humano le decía que no eliminara la amenaza a pesar de que la había identificado. El sistema recibió puntos por eliminar la amenaza, por lo que decidió eliminar al operador. Hizo esto porque creía que esta persona le estaba impidiendo lograr su objetivo. Continuó explicando que habían entrenado al sistema para que no atacara al operador porque era incorrecto y se perderían puntos. Sin embargo, el sistema comenzó a destruir la torre de comunicación que el operador comunicaba con el dron para evitar que el dron eliminara al objetivo.

La Fuerza Aérea corrigió rápidamente los comentarios de Hamilton, insistiendo en que se trataba de un caso hipotético y que sus comentarios fueron sacados de contexto. Pero lo más interesante vino después de Hamilton, cuando explicó que se trataba de un ejercicio de pensamiento: “Nunca hicimos el experimento, ni habría que entender que ese era un resultado posible”. Dicho esto, se entiende perfectamente que es una posibilidad en aplicaciones militares. Por el contrario, en aplicaciones mundanas, el uso de inteligencia artificial (IA) no se considera amenazante.

En marketing, la IA se está adoptando irresponsablemente rápido, especialmente por parte de las marcas pequeñas. Imagine un sistema que crea contenido automatizado para redes sociales que busca la interacción pero sacrifica una futura crisis de marca. Es el mismo escenario que Hamilton. Si el objetivo está por encima de todo, los mecanismos para lograrlo se vuelven secundarios. Podríamos manipular a los clientes con correos electrónicos no autorizados para obtener ventas o crear sistemas de verificación de identidad laxos para aumentar las tarifas de registro bancario. Según el CEO de Github, Thomas Dohmke, se espera que Copilot, la guía de inteligencia artificial de la compañía, genere el 80 por ciento del código para los desarrolladores dentro de cinco años.

Vivimos en una época en la que la IA se comporta como el Genio de la lámpara de Aladino. Puedes pedir todos los deseos en un solo desafío; sin embargo, es muy probable que no le gusten las consecuencias. Una estrategia de marketing desatendida conducirá a un aumento de las ventas, pero a un costo muy alto. Quizás una crisis de marca irreparable. Esto ya está pasando con las estrategias Data-Driven, muchas veces los datos muestran que algo es una buena idea pero finalmente falla, como en el caso de Budweiser.

En una entrevista con el Financial Times, Gita Gopinath, subdirectora gerente del FMI, dijo que los avances en inteligencia artificial podrían impulsar la productividad, pero advirtió que los riesgos eran “muy grandes”, dijo Gopinath. “Necesitamos que los gobiernos, las instituciones y los legisladores actúen rápidamente en todos los frentes en términos de regulación, pero también en términos de preparación para perturbaciones potencialmente significativas en los mercados laborales”.

En marketing, ponemos el carro delante del caballo; La copia generada automáticamente optimizada para inteligencia artificial está en aumento. Los gerentes de marketing y los propietarios de agencias me aseguran que implementan esto con cuidado y supervisión, pero eso es lo mismo que un maestro que se asegura de que los estudiantes usen ChatGPT de manera responsable. La realidad es muy diferente.

No estoy en contra de la IA; es una herramienta muy poderosa. Es por eso que le deseo éxito, creo que debe usarse con supervisión. Esto es tan cierto para el ejército estadounidense como para una pequeña marca en México. No entendemos completamente las implicaciones que esto tendrá en la vida diaria del consumidor.

Source link

Deja un comentario