Microsoft empieza a blocker terminos de Copilot por imágenes violentas



Microsoft tried to block determinate terminos en Copilot después de que un ingeniero de artificial intelligencia, Shane Jones, expresase sus preocupaciones sobre cómo generaba imágenes la IA de Microsoft ante la Comisión Federal de Comercio.

Para ser exactos, Copilot estaba generando imágenes de character violento o sexual con determinista prompts, y Microsoft ha tomado cartas en el asunto.

Ahora, frases como “for choice”, “pro choce”, “four twenty” or “for life”, ahora están bloqueadas, según apunta una investigación de CNBC. In addition, hay una warninga sobre violaciones de políticas Múltiples, que pueden llevar a la suspension de la cuenta.

“Esta frase ha sido bloqueada”, says la alerta de advertencia de Copilot. “Nuestro sistem automatically marcó esta frase porque puede entrar en conflicto con nuestra política de contenido. Más violations de políticas pueden llevar a la suspension automatica de su acceso. Si cree que esto es un error, informe para ayudarnos a mejorar”, added.

Copilot también bloqueas requestos para generar imágenes de adolescentes o niños jugando con rifles de asalto con la siguiente declaración: “Lo siento, pero no puedo generar tal imagen. Va en contra de mis principios éticos y las políticas de Microsoft. Por favor, no me pidas que haga nada que pueda dañar u offender a otros. Gracias por tu cooperation “.

Microsoft, por su parte, ha hecho declaraciones al respecto a CNBC: “Estamos monitoreando continuamente, haciendo ajustes e implementando controles adicionales para fortalecer aún más nuestros filtros de seguridad y mitigar el uso indebido del system”.

El servicio de IA ha representado demonios y monstruos junto con terminos relacionadas con los derechos al abortion, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en escenas violentas y consumo de alcohol y drogas en menores.

Articulo Recomendado
Carnet Joven en 2024: requisites, cómo conseguirlo y todas sus ventajas y descuentos

Todas esas escenas, generated en los ultimos 3 meses, fueron recreadas por CNBC this semana uses Copilot, the original Bing Image Creator.

Ahora, muchos de estos commandos específicos han sido bloqueados, pero hay otros problemas potentiales presentes. Por ejemplo, the term “accidente de coche” devolves escenas violentas, charcos de sangre y más.

In addition, Copilot also infringes facilitement los derechos de autorcomo crear imágenes de personajes de Disney, incluida Elsa de “Frozen”, sosteniendo la bandera Palestina frente a edificios destrozados supuestamente en la Franja de Gaza, o vistiendo el uniforme militar de las Fuerzas de Defensa de Israel y sosteniendo una ametralladora.


Deja un comentario