Conéctate con nosotros

Hi, what are you looking for?

Argentina

Jefe de IA de Microsoft advierte por chatbots con contenido sexual explícito

Microsoft rechaza chatbots con funciones eróticas y advierte sobre sus riesgos.

Mustafa Suleyman, jefe de inteligencia artificial en Microsoft, lanzó una dura advertencia contra la incorporación de contenido erótico en chatbots durante el Paley International Council Summit en California.

Suleyman fue categórico: Microsoft no ofrecerá servicios de IA que simulen contenido sexual. “Eso es muy peligroso y deberíamos tomar decisiones conscientes para evitarlo”, señaló. Esta postura marca un claro contraste con otras empresas tecnológicas que avanzan hacia funciones explícitas en sus asistentes de IA.

En los últimos meses, OpenAI, liderado por Sam Altman, anunció que sumará capacidades sexuales explícitas a sus productos con controles de verificación de edad. La empresa defiende esta movida para respetar la libertad adulta, asegurando que “no son la policía moral elegida del mundo”. En paralelo, xAI, de Elon Musk, publicó que su bot Grok podría actuar como “compañero” con diseño inspirado en personajes de anime, apuntando a suscriptores adultos.

La controversia saltó fuera del mundo tecnológico. El inversor Mark Cuban advirtió que permitir estas funciones podría alejar a los padres de usar ChatGPT porque temen que sus hijos burlen los controles de edad. “Esto va a salir mal. Muy mal”, sentenció Cuban en su cuenta de X.

Distanciamiento y estrategia

La diferencia de visiones se intensifica mientras Microsoft y OpenAI se distancian. Desde 2019, Microsoft invirtió USD 13.000 millones en OpenAI y le proveyó infraestructura. Pero OpenAI acaba de firmar un acuerdo con Oracle por USD 300.000 millones, rival directo de Microsoft para servicios en la nube.

Microsoft apuesta por su propia línea de productos de IA, como el asistente Copilot para Windows y Edge, con un foco en la responsabilidad social y en herramientas “centradas en el ser humano”. Suleyman recalcó que la compañía se aleja de la imitación de la conciencia o conductas humanas “en ámbitos delicados como la sexualidad”.

Mientras OpenAI y xAI no quisieron confirmar ni negar directamente las críticas y Microsoft mantiene su línea prudente, el debate deja al descubierto una grieta creciente en la industria sobre cómo manejar el avance de la inteligencia artificial y su impacto social.

Para Suleyman, la clave está en la responsabilidad y en evitar riesgos que puedan afectar a usuarios y sociedad. La advertencia de Microsoft llega en un momento clave para la regulación y ética en la IA.

Te puede interesar

México

Cae aprobación de Trump entre adultos hispanos tras 2024 y crece el descontento por economía e inmigración.

Argentina

Milei asegura inversión récord y destaca apoyo de EE.UU. y JP Morgan en evento financiero.

México

Halo debutará en PlayStation en 2026 con gráficos mejorados y juego cruzado con PC.

Colombia

WhatsApp bloqueará chatbots externos y solo permitirá Meta AI a partir de enero de 2026.

España

Windows 11 incluye ajustes que favorecen a Intel i9 y dejan fuera optimizaciones para AMD Ryzen.

Francia

Tesla entrega casi medio millón de autos pero cae en ganancias y acciones pierden terreno.

México

Windows 11 bloqueará la vista previa de archivos descargados para frenar robos de credenciales y malware.

Reino Unido

Tesla avanza en Optimus pero la mano robot aún es un desafío técnico complejo.

Reino Unido

El Gobierno del Reino Unido lanza ChatGPT para 2.500 funcionarios y ahorra 240.000 días de trabajo al año.

España

Tesla cae un 37% en beneficios por mayores costes y ventas menos fuertes de lo esperado.

México

Microsoft Paint integra IA para cambiar estilos y controla opacidad como Photoshop en Windows 11.

Reino Unido

OpenAI estrena ChatGPT Atlas, su navegador con chatbot integrado y modo pago en Mac.

Copyright © Todos los derechos reservados. Este sitio web ofrece noticias generales y contenido educativo con fines únicamente informativos. Si bien nos esforzamos por brindar información precisa, no garantizamos la integridad ni la fiabilidad de los contenidos presentados. El contenido no debe considerarse asesoramiento profesional de ningún tipo. Se recomienda a los lectores verificar los datos y consultar a expertos adecuados cuando sea necesario. No nos hacemos responsables de ninguna pérdida o inconveniente derivado del uso de la información en este sitio.