Saltillo|Monclova|Piedras Negras|Acuña|Carbonífera|TorreónEdición Impresa
México cierra su gira por Centro y Sudamérica con victoria por la mínima ante Bolivia Diócesis de Irapuato se deslinda de folletos en contra del divorcio y anticonceptivos Timothée Chalamet y Kylie Jenner disfrutan de una escapada romántica en Los Cabos Precio del dólar en México hoy domingo 25 de enero de 2026 Vandalizan tumbas judías en un cementerio de Barcelona

Zócalo

|

Tecnología

|

Información

< Tecnología

| La ley aprobada obliga a que el contenido creado con IA lleve una marca distintiva. Imagen creada por inteligencia artificial

Tecnología

Corea del Sur, primer país del mundo en regular el uso de la IA

  Por Grupo Zócalo

Publicado el domingo, 25 de enero del 2026 a las 15:38


La legislación tiene por objetivo luchar contra la desinformación, 'deepfakes' y otras consecuencias perjudiciales del uso de la IA

Seúl.- Corea del Sur se convirtió en el primer país del mundo en aprobar una ley que regula el uso de la inteligencia artificial, recoge la agencia Yonhap.

La legislación entró en vigor este 22 de enero y tiene por objetivo luchar contra la desinformación, ‘deepfakes’ y otras consecuencias perjudiciales del uso de la IA. Según la norma, las empresas que suministren directamente productos y servicios de IA deben añadir una ‘marca de agua‘ al contenido de voz, imagen o video generado con inteligencia artificial.

Aplicar marcas de agua al contenido generado con la IA es la medida mínima de protección para evitar los efectos perjudiciales del abuso de la tecnología de IA, como el contenido ‘deepfake'”, afirmó un funcionario del Ministerio de Ciencia citado por Yonhap. 

La ley también afecta a los videojuegos. Los desarrolladores que utilicen la IA deben incluir el aviso ‘este juego utiliza IA generativa en determinados aspectos’ o los personajes creados por IA deben etiquetarse como ‘creados con IA’. A su vez, los chatbots deben etiquetarse como ‘conversación a través de IA generativa’, indica el diario Chosun.

“La IA de alto riesgo”

También la ley fija el término de ‘IA de alto riesgo’, que se usa para las tecnologías que afectan sustancialmente la vida, la seguridad o los derechos fundamentales. Como ejemplo, Yonhup cita el impacto de la IA en el proceso de contratación, las revisiones de préstamos o el asesoramiento médico.

Las compañías cuyas tecnologías generen contenido perteneciente al grupo de alto riesgo, deben informar explícitamente a los usuarios de que sus servicios se basan en la IA, además deben asumir la responsabilidad de garantizar la seguridad, se precisa.

Las empresas de IA que operen en el país y cumplan cualquiera de los criterios —y tengan ingresos anuales globales de 681 millones de dólares o más, ventas en el país por unos siete millones de dólares o al menos un millón de usuarios diarios en el país— tienen que designar un representante local. OpenAI y Google cumplen con los criterios, indica Yonhup.

Si no lo hacen, pueden afrontarse a una multa de hasta 20 mil dólares. Las autoridades, por su parte, tienen previsto aplicar un período de transición de un año antes de imponer sanciones.

Notas Relacionadas

Más sobre esta sección Más en Tecnología

Hace 1 dia

Alexa+ se reinventa en México: ahora conversa, entiende y actúa