Mustafa Suleyman, jefe de inteligencia artificial en Microsoft, lanzó una dura advertencia contra la incorporación de contenido erótico en chatbots durante el Paley International Council Summit en California.
Suleyman fue categórico: Microsoft no ofrecerá servicios de IA que simulen contenido sexual. “Eso es muy peligroso y deberíamos tomar decisiones conscientes para evitarlo”, señaló. Esta postura marca un claro contraste con otras empresas tecnológicas que avanzan hacia funciones explícitas en sus asistentes de IA.
En los últimos meses, OpenAI, liderado por Sam Altman, anunció que sumará capacidades sexuales explícitas a sus productos con controles de verificación de edad. La empresa defiende esta movida para respetar la libertad adulta, asegurando que “no son la policía moral elegida del mundo”. En paralelo, xAI, de Elon Musk, publicó que su bot Grok podría actuar como “compañero” con diseño inspirado en personajes de anime, apuntando a suscriptores adultos.
La controversia saltó fuera del mundo tecnológico. El inversor Mark Cuban advirtió que permitir estas funciones podría alejar a los padres de usar ChatGPT porque temen que sus hijos burlen los controles de edad. “Esto va a salir mal. Muy mal”, sentenció Cuban en su cuenta de X.
Distanciamiento y estrategia
La diferencia de visiones se intensifica mientras Microsoft y OpenAI se distancian. Desde 2019, Microsoft invirtió USD 13.000 millones en OpenAI y le proveyó infraestructura. Pero OpenAI acaba de firmar un acuerdo con Oracle por USD 300.000 millones, rival directo de Microsoft para servicios en la nube.
Microsoft apuesta por su propia línea de productos de IA, como el asistente Copilot para Windows y Edge, con un foco en la responsabilidad social y en herramientas “centradas en el ser humano”. Suleyman recalcó que la compañía se aleja de la imitación de la conciencia o conductas humanas “en ámbitos delicados como la sexualidad”.
Mientras OpenAI y xAI no quisieron confirmar ni negar directamente las críticas y Microsoft mantiene su línea prudente, el debate deja al descubierto una grieta creciente en la industria sobre cómo manejar el avance de la inteligencia artificial y su impacto social.
Para Suleyman, la clave está en la responsabilidad y en evitar riesgos que puedan afectar a usuarios y sociedad. La advertencia de Microsoft llega en un momento clave para la regulación y ética en la IA.


































