Riesgos sociales de la IA: Impacto en empleo, privacidad y ética

Riesgos sociales de la IA: Impacto en empleo, privacidad y ética

Descubre cómo los riesgos sociales de la inteligencia artificial, como el desempleo tecnológico, sesgo algorítmico y vigilancia, están transformando nuestra sociedad. Utiliza análisis impulsados por IA para entender las implicaciones éticas y regulatorias en 2026 y más allá.

1/151

Riesgos sociales de la IA: Impacto en empleo, privacidad y ética

52 min de lectura10 artículos

Guía básica sobre los riesgos sociales de la IA para principiantes

¿Qué son los riesgos sociales de la inteligencia artificial?

Los riesgos sociales de la inteligencia artificial (IA) se refieren a los efectos negativos que esta tecnología puede tener en la sociedad en general. Aunque la IA ofrece beneficios como mayor eficiencia y avances en salud, también plantea desafíos que amenazan la estabilidad social, los derechos humanos y la justicia. Entender estos riesgos es fundamental para quienes comienzan a explorar el impacto de la IA en nuestra vida cotidiana.

En 2026, por ejemplo, se estima que cerca del 36% de los empleos en todo el mundo enfrentan riesgo de automatización parcial o total en la próxima década. Esto significa que muchas tareas laborales podrían ser realizadas por máquinas, afectando la estabilidad laboral y económica de millones de personas. Además, el uso de la IA en vigilancia ha generado serias preocupaciones sobre la privacidad y la libertad individual, especialmente en grandes ciudades donde el 65% ya emplea reconocimiento facial y sistemas de monitoreo masivos.

Estos aspectos reflejan que los riesgos sociales de la IA no solo son teóricos, sino que tienen un impacto directo en nuestras vidas, por lo que es importante comprenderlos para adoptar medidas que minimicen sus efectos adversos.

Principales riesgos sociales de la IA

1. El desempleo por automatización tecnológica

Uno de los mayores desafíos sociales que trae la IA es el desempleo tecnológico. La automatización de tareas repetitivas y rutinarias en sectores como manufactura, transporte y servicios ha llevado a la pérdida de millones de empleos en todo el mundo. Según las estimaciones actuales, cerca del 36% de los trabajos enfrentan riesgo de ser automatizados en los próximos diez años.

Este fenómeno puede profundizar las desigualdades sociales, especialmente si no se implementan políticas de recuperación laboral o reeducación. La clave está en preparar a la fuerza laboral para nuevas habilidades y roles que la IA aún no puede reemplazar, como tareas que requieren creatividad, empatía y juicio ético.

2. Sesgo algorítmico y discriminación

El sesgo algorítmico es otra problemática importante. Cuando los sistemas de IA toman decisiones en procesos de selección laboral, acceso a créditos o servicios públicos, pueden reproducir o incluso amplificar prejuicios existentes en los datos con los que fueron entrenados. Estudios muestran que un 24% de los sistemas evaluados presentan sesgos documentados que afectan a grupos vulnerables.

Por ejemplo, en procesos de reclutamiento, algunos algoritmos pueden discriminar a candidatos por género, raza o edad, perpetuando desigualdades sociales. La discriminación algorítmica socava la justicia y puede generar conflictos sociales, además de afectar la confianza en estas tecnologías.

3. Vigilancia y pérdida de privacidad

El uso de la IA en sistemas de vigilancia ha crecido exponencialmente, especialmente en las grandes ciudades. Actualmente, el 65% de las urbes emplean reconocimiento facial y monitoreo automatizado para controlar el orden público y la seguridad.

Este nivel de vigilancia puede erosionar la privacidad y limitar las libertades individuales, generando un ambiente de control constante. La posibilidad de que las autoridades o empresas recolecten y analicen datos personales sin suficiente regulación plantea riesgos de abuso y de una sociedad cada vez más vigilada y controlada.

4. Desinformación y campañas de manipulación

Desde 2023, ha habido un incremento del 48% en campañas de desinformación habilitadas por IA. Estas tecnologías facilitan la creación de noticias falsas, perfiles falsos y contenidos manipulados, que pueden influir en la opinión pública y afectar procesos democráticos.

La desinformación puede generar polarización, desconfianza en las instituciones y conflictos sociales, poniendo en jaque la estabilidad democrática. La lucha contra la desinformación impulsada por IA requiere regulación y alfabetización digital para la ciudadanía.

¿Cómo podemos enfrentar estos riesgos?

Para mitigar los efectos negativos de la IA en la sociedad, se necesitan acciones concretas desde diferentes ámbitos:

  • Regulación y políticas públicas: Es fundamental establecer marcos legales claros que regulen el uso de la IA, protejan la privacidad y promuevan la transparencia y la ética en la toma de decisiones automatizadas. En 2026, más de 30 países han avanzado en la creación de regulaciones específicas para estos fines.
  • Transparencia y auditorías: Las empresas y organizaciones deben ser responsables de sus algoritmos, realizando auditorías para detectar sesgos y corregirlos. La transparencia en los procesos ayuda a generar confianza social.
  • Educación y sensibilización: La ciudadanía debe estar informada sobre los riesgos de la IA y cómo proteger sus derechos. Promover la alfabetización digital y ética ayuda a crear una sociedad más resiliente y consciente.
  • Participación social: La inclusión de la sociedad civil en debates sobre el uso ético y responsable de la IA es clave para definir límites y prioridades colectivas.

El papel de la regulación y la ética en la gestión de riesgos

Los avances en regulación en 2026 reflejan una tendencia global hacia un uso más responsable de la IA. La creación de comités de ética, auditorías independientes y regulaciones estrictas en más de 30 países busca reducir los riesgos sociales y mantener los beneficios tecnológicos.

La ética en IA es fundamental: se trata de garantizar que estas tecnologías respeten los derechos humanos, sean justas y transparentes. La regulación y la ética deben ir de la mano para construir un futuro donde la IA beneficie a toda la sociedad sin dejar a nadie atrás.

Conclusión

Los riesgos sociales de la IA son complejos y multifacéticos, pero no insuperables. Con un enfoque responsable, regulaciones adecuadas y una ciudadanía informada, podemos aprovechar los beneficios de la inteligencia artificial minimizando sus peligros. La clave está en promover una innovación ética y transparente, que priorice el bienestar social y respete los derechos fundamentales.

En definitiva, entender estos riesgos y actuar proactivamente es esencial para construir un futuro en el que la IA sea una herramienta que contribuya positivamente a la sociedad, en lugar de convertirse en una fuente de desigualdad, vigilancia o conflicto.

Impacto de la IA en el mercado laboral: desempleo y transformación del empleo

La automatización y el desempleo: una realidad en expansión

La inteligencia artificial (IA) ha dejado de ser una tecnología futurista para convertirse en un componente clave del mercado laboral actual. Desde robótica en fábricas hasta sistemas automatizados en oficinas, la IA está transformando la manera en que se produce y ofrece trabajo. Según las estimaciones más recientes, en 2026 cerca del 36% de los empleos globales enfrentan un riesgo significativo de automatización parcial o total en la próxima década.

Este fenómeno no se limita a sectores específicos; es transversal y afecta desde la manufactura y el transporte hasta los servicios profesionales. Por ejemplo, en la industria automotriz, los robots con IA realizan tareas de ensamblaje con una precisión que supera a la humana, reduciendo la necesidad de mano de obra en ciertas áreas. De manera similar, en sectores financieros, algoritmos avanzados toman decisiones de inversión, desplazando a analistas y gestores tradicionales.

El impacto inmediato de esta automatización es el aumento del desempleo tecnológico, pero también implica una transformación profunda del empleo. Muchos trabajos tradicionales están en peligro, mientras que surgen nuevas profesiones relacionadas con el desarrollo, mantenimiento y regulación de sistemas de IA. La clave está en entender cómo gestionar esta transición para minimizar los efectos negativos y potenciar los beneficios.

Transformación del empleo: nuevas habilidades y oportunidades

¿Qué trabajos están en riesgo y cuáles emergen?

La automatización no elimina todos los empleos por igual. Los trabajos que involucran tareas repetitivas y rutinarias, como operadores de línea de producción, asistentes administrativos o conductores, son los más vulnerables. Sin embargo, también hay sectores donde la IA complementa las habilidades humanas, creando nuevas oportunidades.

Por ejemplo, en la salud, la IA ayuda en diagnósticos y análisis de datos, pero requiere profesionales capacitados para interpretar los resultados y tomar decisiones clínicas. En tecnología, la demanda de ingenieros especializados en aprendizaje automático, ética en IA y ciberseguridad aumenta exponencialmente.

Un dato relevante es que, en 2026, la tendencia apunta a que los trabajos del futuro requerirán habilidades en análisis de datos, programación, ética digital y gestión de sistemas automatizados. La educación y la capacitación continua serán fundamentales para adaptarse a estos cambios.

El impacto sectorial y las proyecciones futuras

¿Qué sectores se verán más afectados y cómo?

El sector manufacturero y logístico será uno de los más impactados por la automatización. La robotización en fábricas y la optimización de cadenas de suministro mediante IA reducirán significativamente la necesidad de mano de obra en tareas repetitivas. Se estima que, para 2030, aproximadamente el 50% de los trabajos en logística podrían ser automatizados en países con alto nivel de tecnología.

En el sector de servicios, la atención al cliente mediante chatbots y asistentes virtuales ha aumentado en los últimos años. Aunque esto mejora la eficiencia, también implica la pérdida de empleos tradicionales en call centers. Sin embargo, también se abren oportunidades en la gestión y programación de estos sistemas.

Por otro lado, la agricultura inteligente, que utiliza drones y sensores con IA para monitoreo y cosecha, está transformando un sector tradicionalmente manual, promoviendo una agricultura más eficiente pero también con menor necesidad de mano de obra en tareas básicas.

Perspectivas para el empleo en los próximos años

Las proyecciones indican que, aunque algunos empleos desaparecerán, otros surgirán con mayor demanda de habilidades tecnológicas. La clave será la resiliencia y la adaptabilidad de la fuerza laboral. La formación en nuevas competencias, junto con políticas públicas de apoyo, será esencial para afrontar esta transición.

Además, la regulación y las políticas de protección social jugarán un papel crucial. Algunos países ya están experimentando con programas de ingreso básico universal o subsidios para la reconversión laboral, buscando reducir el impacto del desempleo tecnológico.

Desafíos sociales y éticos asociados a la transformación laboral

El riesgo del aumento del desempleo y la desigualdad

Uno de los principales riesgos sociales de la IA es el incremento en las desigualdades sociales. La automatización puede concentrar la riqueza en manos de quienes poseen capital y habilidades tecnológicas, dejando atrás a aquellos en empleos vulnerables. En 2026, se estima que casi el 40% de la población laboral en países en desarrollo podría verse afectada por la pérdida de empleos tradicionales.

Este fenómeno puede generar tensiones sociales, aumento de la pobreza y polarización política. La desigualdad en el acceso a la capacitación y la educación será un factor determinante para evitar que la brecha social se amplíe.

La necesidad de regulación y políticas inclusivas

Para mitigar estos riesgos, los gobiernos y las organizaciones deben implementar políticas que promuevan la inclusión digital y la protección social. La regulación de la IA en el mercado laboral, con énfasis en la transparencia y la responsabilidad, es fundamental.

Por ejemplo, en 2026, más de 30 países han establecido marcos regulatorios específicos para supervisar el uso de IA en decisiones laborales y garantizar procesos justos y libres de sesgos.

Además, la inversión en educación y capacitación continua, junto con programas de reconversión laboral, son estrategias claves para preparar a la población para los empleos del futuro.

Conclusión: un equilibrio necesario para un futuro sostenible

El impacto de la inteligencia artificial en el mercado laboral es profundo y multifacético. Si bien la automatización trae consigo la pérdida de ciertos empleos y la transformación de otros, también abre la puerta a nuevas oportunidades y habilidades. La clave está en gestionar estos cambios de manera ética, inclusiva y con un marco regulatorio robusto.

La cooperación entre gobiernos, empresas y sociedad civil será esencial para garantizar que la transición hacia una economía impulsada por IA sea justa y sostenible. La inversión en educación, la protección social y la regulación responsable serán los pilares para mitigar los riesgos sociales y aprovechar al máximo los beneficios que la inteligencia artificial puede ofrecer en el futuro del trabajo.

Sesgo algorítmico y discriminación: desafíos éticos en la IA socialmente responsable

El sesgo algorítmico se refiere a las distorsiones o prejuicios incorporados en los sistemas de inteligencia artificial (IA) que pueden conducir a decisiones injustas o discriminatorias. Estos sesgos suelen originarse en los datos con los que entrenan los algoritmos, que muchas veces reflejan prejuicios sociales existentes o desigualdades históricas. Por ejemplo, un sistema de selección laboral que discrimina a ciertos grupos étnicos o de género por patrones en los datos históricos resulta en una decisión sesgada, perpetuando la desigualdad.

Este fenómeno ha cobrado relevancia en los últimos años, especialmente en ámbitos críticos como la justicia, la salud, la contratación y la vigilancia. La preocupación principal radica en que, si estos sesgos no se detectan y corrigen, las decisiones automatizadas pueden acentuar las desigualdades sociales y violar derechos fundamentales.

Según las evaluaciones realizadas en 2026, cerca del 24% de los sistemas de IA analizados muestran sesgos documentados, lo que indica que la discriminación algorítmica continúa siendo un problema generalizado. Además, estos sesgos no solo afectan a individuos, sino que también refuerzan estereotipos sociales y generan desconfianza en la tecnología.

Discriminación en procesos de selección y acceso a servicios

Uno de los ámbitos donde el sesgo algorítmico tiene mayor impacto es en procesos de selección laboral. Por ejemplo, empresas que usan IA para filtrar currículums pueden, sin querer, excluir a candidatos de ciertos grupos étnicos o géneros, si los datos históricos contienen prejuicios. Esto perpetúa la desigualdad en el acceso al empleo.

Asimismo, en ámbitos como el acceso a créditos, vivienda o servicios públicos, los algoritmos sesgados pueden marginalizar a comunidades vulnerables, dificultando su integración social y económica. La discriminación algorítmica también se ha evidenciado en sistemas de reconocimiento facial y vigilancia, donde las tasas de error son mayores para personas de piel oscura o con características físicas específicas.

Impacto en la justicia y la toma de decisiones sociales

Los sistemas judiciales y policiales que usan IA para evaluar riesgos o determinar sentencias han sido criticados por sesgos que afectan principalmente a minorías étnicas. En algunos casos, estos algoritmos han llevado a decisiones que, aunque automáticas, tienen consecuencias humanas profundas y duraderas.

Este escenario plantea dilemas éticos sobre la transparencia y la responsabilidad en las decisiones automatizadas. La falta de explicabilidad en los algoritmos dificulta que las personas afectadas puedan entender o cuestionar las decisiones, agravando la desconfianza en las instituciones y poniendo en riesgo derechos fundamentales como el derecho a un juicio justo.

Auditorías y evaluaciones constantes

Una de las acciones más efectivas para reducir el sesgo algorítmico es realizar auditorías independientes y periódicas de los sistemas de IA. Estas evaluaciones deben detectar sesgos en los datos, en los modelos y en los resultados, permitiendo corregir las desviaciones antes de que impacten a los usuarios.

Por ejemplo, en 2026, varias empresas tecnológicas han establecido comités internos y colaboraciones con organizaciones externas para revisar sus algoritmos y asegurar que cumplen estándares éticos y de equidad.

Diseño inclusivo y entrenamiento de datos diversos

El sesgo suele originarse en los datos de entrenamiento. Por ello, es fundamental recopilar conjuntos de datos representativos y equilibrados, que reflejen la diversidad social, cultural y étnica. Además, los desarrolladores deben incorporar perspectivas multidisciplinarias para identificar posibles prejuicios en el diseño del sistema.

Al incluir diferentes voces en el proceso de desarrollo, se reduce la probabilidad de que la IA reproduzca prejuicios existentes y se fomenta una tecnología más justa y equitativa.

Regulación y transparencia

La creación de marcos regulatorios claros y rigurosos es clave para garantizar que las empresas y organizaciones responsables adopten prácticas éticas en el desarrollo de IA. Desde 2026, más de 30 países han implementado leyes que exigen la transparencia en los algoritmos y la protección de derechos humanos.

La transparencia implica explicar cómo funcionan los sistemas, cuáles datos utilizan y cómo toman decisiones. Esto permite que usuarios, auditores y reguladores puedan evaluar y cuestionar los resultados, promoviendo una cultura de responsabilidad.

Capacitación y sensibilización

Formar a los desarrolladores, tomadores de decisiones y al público en general sobre los riesgos del sesgo algorítmico y la ética en IA es esencial. La sensibilización ayuda a detectar prejuicios, exigir mejores prácticas y participar activamente en la regulación del uso responsable de la tecnología.

Organizaciones académicas y civiles ofrecen cursos, talleres y recursos para promover una cultura ética en el campo de la inteligencia artificial.

El reto de mitigar el sesgo en los algoritmos no solo recae en los desarrolladores, sino en toda la sociedad. La colaboración entre gobiernos, empresas, academia y sociedad civil es crucial para crear un entorno en el que la IA beneficie a todos sin perpetuar desigualdades.

En 2026, la regulación, la transparencia y la inclusión en el diseño de sistemas son pasos fundamentales para avanzar hacia una inteligencia artificial que respete los derechos humanos y promueva la equidad social.

El futuro de la IA socialmente responsable dependerá de nuestro compromiso para identificar y corregir los sesgos, garantizando que estas tecnologías sirvan como herramientas para la justicia y la igualdad, en lugar de fuentes de discriminación.

El sesgo algorítmico representa uno de los desafíos éticos más apremiantes en el desarrollo de una inteligencia artificial socialmente responsable. Los riesgos de discriminación en procesos críticos de decisión, combinados con la falta de transparencia y regulación, pueden profundizar las desigualdades existentes y vulnerar derechos fundamentales.

Sin embargo, mediante auditorías, diseño inclusivo, regulación efectiva y sensibilización, es posible minimizar estos sesgos y promover una IA más justa. La responsabilidad recae en todos: desarrolladores, legisladores y usuarios. Solo así podremos construir una sociedad en la que la tecnología funcione como un aliado en la promoción de la ética, la igualdad y la justicia social.

Vigilancia masiva y privacidad en la era de la IA: ¿cómo proteger tus derechos?

La expansión de la vigilancia con inteligencia artificial en las ciudades

En los últimos años, la integración de la inteligencia artificial en los sistemas de vigilancia urbana se ha acelerado de forma significativa. Hoy en día, aproximadamente el 65% de las grandes ciudades en el mundo utilizan tecnologías de IA para monitorear espacios públicos, mediante reconocimiento facial, análisis de comportamientos y seguimiento en tiempo real. Si bien estas herramientas prometen mejorar la seguridad y responder rápidamente a incidentes, también abren la puerta a una serie de riesgos sociales que afectan la privacidad y los derechos individuales.

La vigilancia masiva con IA permite identificar personas en espacios públicos sin su consentimiento, recopilar datos de manera constante y, en algunos casos, crear perfiles completos de los ciudadanos. Esto genera un escenario en el que la privacidad se vuelve una propiedad cada vez más vulnerable, y la sensación de libertad en las ciudades puede verse afectada. Además, el uso de reconocimiento facial, en particular, ha sido objeto de controversia debido a su potencial para facilitar la discriminación y la discriminación algorítmica.

Los riesgos sociales asociados a la vigilancia con IA

Sesgo algorítmico y discriminación

Uno de los principales problemas en la implementación de sistemas de vigilancia con IA es el sesgo algorítmico. Estudios recientes evidencian que un 24% de los sistemas evaluados muestran sesgos documentados, afectando principalmente a comunidades vulnerables y minoritarias. Esto puede traducirse en perfiles erróneos, detenciones injustificadas o exclusión social. Por ejemplo, algunos sistemas de reconocimiento facial tienen tasas de error mucho más altas para personas de ciertos grupos étnicos, lo que alimenta la discriminación y la desigualdad social.

Impacto en la privacidad y libertad individual

El uso de tecnologías de vigilancia en espacios públicos y en la vida cotidiana ha generado preocupaciones sobre la pérdida de privacidad. La capacidad de rastrear movimientos, actividades e incluso emociones, en tiempo real, plantea un desafío ético y legal importante. La sensación de ser observado constantemente puede disminuir la libertad individual, creando un ambiente de autocensura y miedo, que afecta el ejercicio de derechos fundamentales.

Incremento en campañas de desinformación y control social

Desde 2023, la proliferación de campañas de desinformación habilitadas por IA ha aumentado en un 48%. La manipulación de información y la creación de contenidos falsos, combinadas con la vigilancia masiva, facilitan el control social y la censura. Países y actores malintencionados pueden utilizar estas tecnologías para suprimir disidencias, influir en decisiones públicas y socavar la confianza en las instituciones democráticas.

¿Cómo proteger tus derechos en la era de la IA?

Conoce y exige regulaciones claras

El primer paso para proteger tu privacidad y derechos es estar informado sobre las leyes y regulaciones en tu país. En 2026, más de 30 naciones han implementado marcos regulatorios específicos para la IA, centrados en la protección de datos, la transparencia y la ética. Como ciudadano, puedes apoyar estas iniciativas, participar en debates públicos y exigir que las tecnologías de vigilancia cumplan con estándares éticos y legales estrictos.

Utiliza herramientas tecnológicas de protección de la privacidad

Existen diversas herramientas que ayudan a limitar la exposición de datos personales. Por ejemplo, el uso de aplicaciones que bloquean el reconocimiento facial o que cifran la información que compartes en línea. También puedes emplear navegadores y extensiones que bloquean rastreadores y publicidades invasivas. La protección activa de tus datos es fundamental para reducir la vulnerabilidad frente a sistemas de vigilancia automatizados.

Sé consciente de tus espacios y comportamientos

Limitar la exposición en espacios públicos y ser consciente de las cámaras y sistemas de reconocimiento facial en tu entorno ayuda a reducir riesgos. Evitar el uso excesivo de dispositivos que recopilen datos, como teléfonos inteligentes o wearables, también contribuye a mantener un mayor control sobre tu información personal. Además, participa en campañas y movimientos que promuevan la regulación ética en el uso de la IA en vigilancia.

Promueve la transparencia y la responsabilidad

Exigir a las instituciones públicas y privadas que implementen sistemas de vigilancia que sean transparentes en su funcionamiento y en la gestión de datos es clave. La transparencia en los algoritmos, la realización de auditorías independientes y la publicación de informes de impacto social ayudan a garantizar que estas tecnologías no vulneren derechos humanos. Como ciudadano informado, puedes solicitar estas medidas y apoyar a organizaciones que luchan por la protección digital.

El papel de la sociedad y las futuras tendencias

La protección de los derechos en el contexto de la vigilancia con IA requiere un esfuerzo conjunto. Los gobiernos, empresas, académicos y la sociedad civil deben colaborar para establecer límites claros y promover una cultura de responsabilidad. En 2026, se están fortaleciendo las regulaciones internacionales y los comités de ética para monitorear el uso de la IA en vigilancia, además de promover la educación sobre derechos digitales.

Una tendencia prometedora es la incorporación de tecnologías de privacidad diferencial y blockchain para asegurar la transparencia y el control del usuario sobre sus datos. Asimismo, las auditorías de sesgo y los marcos de responsabilidad compartida están siendo adoptados como prácticas estándar. La clave está en equilibrar la necesidad de seguridad con la protección de la privacidad y los derechos humanos.

Conclusión

La vigilancia masiva con IA en las ciudades representa un avance tecnológico con beneficios potenciales, pero también con riesgos sociales considerables. La pérdida de privacidad, el sesgo algorítmico y la desinformación son desafíos que requieren acciones concretas a nivel individual, social y legislativo. Proteger tus derechos en esta era implica conocer tus opciones, apoyar regulaciones responsables y usar herramientas tecnológicas que salvaguarden tu privacidad. Solo con un esfuerzo coordinado podremos garantizar que el impacto social de la IA se traduzca en un futuro más justo, ético y seguro para todos.

La desinformación impulsada por IA: riesgos y estrategias de combate en 2026

El auge de la desinformación generada por IA

En 2026, la inteligencia artificial ha transformado la manera en que se produce y difunde la información, potenciando fenómenos como la desinformación a niveles sin precedentes. La facilidad de crear contenidos falsos, como videos, audios y textos, que parecen completamente reales, ha abierto una caja de Pandora para la sociedad. Desde campañas políticas hasta campañas de manipulación social, la IA ha sido utilizada para difundir noticias falsas con una precisión y velocidad que superan las capacidades humanas.

El incremento del 48% en campañas de desinformación habilitadas por IA desde 2023 evidencia cómo estas tecnologías se han convertido en una herramienta poderosa para actores malintencionados. La sofisticación de los deepfakes, los bots automáticos y los generadores de texto ha facilitado la creación de contenidos que engañan, manipulan y polarizan a las audiencias. La peligrosidad radica en que estas informaciones falsas pueden propagarse rápidamente en plataformas sociales, generando confusión, miedo y desconfianza en las instituciones públicas y privadas.

Implicaciones sociales de la desinformación impulsada por IA

Impacto en la confianza social y la democracia

La desinformación impulsada por IA ha erosionado la confianza en los medios tradicionales, las instituciones públicas y los procesos democráticos. Estudios recientes muestran que el 70% de los ciudadanos en diversos países tienen dudas sobre la veracidad de la información que consumen en línea. La manipulación de noticias puede influir en elecciones, generar protestas falsas o desacreditar figuras públicas y organizaciones.

Por ejemplo, en 2026, las campañas de desinformación en torno a elecciones presidenciales en varias democracias han sido alimentadas por bots y contenidos generados automáticamente que difunden narrativas falsas, polarizando aún más a la sociedad. La existencia de deepfakes que muestran a políticos diciendo cosas que nunca dijeron ha complicado aún más la tarea de distinguir la verdad de la manipulación.

Consecuencias en la salud pública y la seguridad social

Otra dimensión importante es cómo la desinformación afecta la salud pública. En medio de crisis sanitarias o emergencias, la circulación de información falsa puede poner en riesgo vidas. En 2026, se registró un aumento del 30% en la circulación de fake news relacionadas con vacunas y tratamientos, generando resistencia a la vacunación y complicando la gestión sanitaria.

Además, las campañas de desinformación pueden desestabilizar la seguridad social, alimentando teorías conspirativas y fomentando movimientos radicales, lo que a su vez incrementa la polarización y el conflicto social.

¿Qué acciones se están implementando para combatir la desinformación impulsada por IA?

Regulación y legislación en diferentes países

Frente a estos desafíos, en 2026 más de 30 países han aprobado regulaciones específicas para mitigar los riesgos de la desinformación y controlar el uso de IA en la creación y difusión de contenidos falsos. Estas leyes incluyen requisitos estrictos de transparencia, como la obligación de etiquetar claramente los contenidos generados por IA y la implementación de sistemas de verificación automática.

Por ejemplo, la Unión Europea ha reforzado su marco regulatorio, exigiendo a las plataformas que implementen sistemas de detección y eliminación de contenidos falsificados y que rindan cuentas por la propagación de fake news en sus plataformas. Estados Unidos y Canadá también han adoptado leyes similares, promoviendo la colaboración entre agencias regulatorias y plataformas digitales.

Innovaciones tecnológicas para detectar y contrarrestar la desinformación

El avance tecnológico ha permitido crear herramientas de detección automática de deepfakes y contenidos generados por IA. Empresas tecnológicas y organizaciones independientes han desarrollado algoritmos que analizan patrones en videos, audios y textos, identificando indicios de manipulación.

Por ejemplo, en 2026, plataformas como YouTube, Facebook y Twitter han implementado sistemas de inteligencia artificial que marcan automáticamente contenidos sospechosos y permiten a los usuarios reportarlos fácilmente. Además, se están promoviendo alianzas internacionales para compartir datos y mejorar la precisión de estos sistemas.

Educación y alfabetización digital

Otra estrategia fundamental es la educación de la ciudadanía para reconocer y resistir la desinformación. En diferentes países, se están lanzando campañas de alfabetización digital que enseñan a identificar noticias falsas, verificar fuentes y entender el funcionamiento de las tecnologías de generación de contenidos.

La formación en pensamiento crítico y alfabetización mediática se ha convertido en un pilar para fortalecer la resiliencia social frente a las campañas de manipulación impulsadas por IA. La participación activa y consciente de los usuarios es esencial para limitar la circulación de fake news.

Retos y perspectivas futuras

A pesar de los avances en regulación y tecnología, la lucha contra la desinformación impulsada por IA sigue siendo un reto complejo. Los actores malintencionados continúan perfeccionando sus técnicas, y la velocidad con la que se generan contenidos falsos puede superar la capacidad de detección y regulación.

Para 2026, se espera que la colaboración internacional y la innovación tecnológica sean clave para fortalecer las estrategias de combate. Es imprescindible que los gobiernos, las empresas y la sociedad civil trabajen en conjunto para crear un entorno digital más seguro, transparente y confiable.

Asimismo, el desarrollo de marcos éticos claros y la regulación de la inteligencia artificial en la creación de contenidos deben ser prioridades para evitar que estas tecnologías se conviertan en armas para la desinformación masiva.

Conclusión

La desinformación impulsada por IA en 2026 representa uno de los riesgos sociales más relevantes del impacto social de la inteligencia artificial. La facilidad de crear contenidos falsos y la velocidad con la que se difunden amenazan la confianza pública, la estabilidad democrática y la salud social. Sin embargo, mediante una combinación de regulaciones, avances tecnológicos y la alfabetización digital, la sociedad puede hacer frente a estos desafíos.

El futuro del control de la desinformación dependerá de la colaboración global y del compromiso ético en el desarrollo y uso de la IA. Solo así podremos aprovechar sus beneficios minimizando los riesgos sociales que plantea.

Regulación y políticas públicas para gestionar los riesgos sociales de la IA en 2026

Introducción: un panorama regulatorio en evolución

En 2026, los riesgos sociales asociados a la inteligencia artificial (IA) han llevado a que más de 30 países implementen nuevas leyes y estándares para garantizar un uso ético y seguro de estas tecnologías. La rápida expansión de la IA en ámbitos como vigilancia, empleo, salud y comunicación ha puesto en el centro del debate la necesidad de un marco regulatorio robusto, capaz de equilibrar innovación y protección de derechos fundamentales.

Desde las regulaciones europeas que refuerzan la transparencia y la responsabilidad, hasta las políticas públicas en Estados Unidos, Asia y América Latina, el enfoque en gestión de riesgos sociales se ha convertido en un eje central de la agenda mundial. En este contexto, la coordinación internacional y la adaptación constante de las leyes son claves para enfrentar los desafíos que presenta la IA en la sociedad moderna.

Las principales tendencias regulatorias en 2026

1. Normativas enfocadas en la protección de datos y privacidad

Uno de los aspectos más destacados en 2026 es el fortalecimiento de las regulaciones sobre la protección de datos personales. La vigilancia masiva y el reconocimiento facial en espacios públicos, que ya afectan al 65% de las grandes ciudades, han impulsado leyes que restringen el uso indiscriminado de tecnologías de vigilancia impulsadas por IA.

Por ejemplo, la Unión Europea ha avanzado hacia una regulación más estricta que exige la transparencia en el uso de tecnologías de reconocimiento facial y la obtención del consentimiento explícito. En países como Brasil y Argentina, las leyes de protección de datos han sido actualizadas para incluir requisitos específicos en el uso de IA para vigilancia y monitoreo.

2. Estándares internacionales para la ética y la transparencia

La ética en IA sigue siendo un tema prioritario. La creación de comités independientes y la adopción de estándares internacionales, como los propuestos por la OCDE y la UNESCO, buscan promover la transparencia en los algoritmos y reducir el sesgo algorítmico. Estas iniciativas pretenden asegurar que las decisiones automatizadas sean explicables y sujetas a revisión humana en casos críticos, como procesos judiciales o selección laboral.

Además, en 2026, países como Canadá, Australia y Japón han establecido directrices para la auditoría regular de sistemas de IA, garantizando que estos no perpetúen discriminación ni vulneren derechos humanos.

3. Regulación del impacto en empleo y seguridad social

El riesgo de desempleo por automatización, que en 2026 afecta a casi el 36% de los empleos globales, ha llevado a que las políticas públicas incluyan programas de capacitación y protección social específicos para trabajadores desplazados por la IA. Algunos países han implementado impuestos sobre empresas que utilizan IA para automatizar tareas, destinando esos recursos a fondos de empleo y reeducación.

En países como Alemania y Corea del Sur, las leyes fomentan la participación de sindicatos y organizaciones sociales en la creación de marcos regulatorios que gestionen la transición laboral de manera justa y sostenible.

Desafíos en la implementación de la regulación

1. La rápida evolución tecnológica y la brecha regulatoria

Uno de los principales obstáculos en 2026 es la velocidad con que evoluciona la tecnología de IA. La normativa, que tarda meses o años en desarrollarse, puede quedar obsoleta frente a nuevas aplicaciones o amenazas emergentes. La falta de coordinación internacional agrava este problema, dejando espacios regulatorios ambiguos o insuficientes.

2. La dificultad para fiscalizar y hacer cumplir las leyes

La supervisión efectiva requiere recursos y capacidades que muchos países aún no tienen. La proliferación de sistemas de IA no regulados aumenta el riesgo de que tecnologías peligrosas o mal gestionadas causen daños sociales significativos.

Por ello, el fortalecimiento de agencias regulatorias y la colaboración internacional en auditorías y sanciones son acciones clave para asegurar el cumplimiento de las leyes existentes.

Acciones concretas y recomendaciones para el futuro

  • Fortalecer la cooperación internacional: La creación de acuerdos multilaterales que establezcan estándares comunes ayudará a armonizar las regulaciones y reducir las brechas legales.
  • Fomentar la participación de la sociedad civil: La inclusión de organizaciones, expertos en ética y ciudadanía en los procesos legislativos garantiza que las políticas respondan a las necesidades sociales reales.
  • Invertir en capacidades regulatorias: La formación de inspectores especializados y el uso de tecnologías de auditoría automatizada facilitarán la vigilancia efectiva de los sistemas de IA.
  • Desarrollar marcos éticos y de transparencia: Las empresas y gobiernos deben adoptar principios claros y públicos sobre el uso responsable de la IA, promoviendo la explicabilidad y la rendición de cuentas.
  • Implementar programas de capacitación y reeducación laboral: Minimizar el impacto del desempleo tecnológico requiere preparar a la fuerza laboral para nuevas oportunidades y roles que surjan en la era de la inteligencia artificial.

El papel de la ciudadanía y de las empresas

Los ciudadanos deben estar informados y activos en la defensa de sus derechos frente a las tecnologías de IA. La participación en debates públicos, el apoyo a regulaciones responsables y la adopción de prácticas digitales seguras son pasos esenciales.

Por su parte, las empresas tienen la responsabilidad de desarrollar IA ética, realizar auditorías internas y colaborar con las autoridades regulatorias. La reputación y la sostenibilidad de sus operaciones dependerán en buena medida de su compromiso con el cumplimiento de las leyes y principios éticos.

Conclusión: hacia una gestión responsable de los riesgos sociales de la IA en 2026

En definitiva, la regulación y las políticas públicas en 2026 reflejan un compromiso global por gestionar los riesgos sociales de la inteligencia artificial. La creación de leyes más estrictas, la cooperación internacional y la participación activa de la sociedad civil son fundamentales para maximizar los beneficios y minimizar los daños.

El futuro de la IA dependerá en gran medida de cómo los gobiernos, las empresas y los ciudadanos trabajen juntos para establecer un marco ético, transparente y efectivo. Solo así podremos aprovechar al máximo las oportunidades que ofrece la inteligencia artificial, sin sacrificar nuestros derechos sociales y éticos.

Casos de estudio: cómo la IA ha generado riesgos sociales en diferentes países

Introducción: la dualidad de la inteligencia artificial

La inteligencia artificial (IA) ha transformado múltiples aspectos de nuestras vidas, desde la atención médica hasta la seguridad pública. Sin embargo, su avance no ha estado exento de controversias y riesgos sociales. Diversos países han enfrentado situaciones donde el uso de IA ha provocado debates éticos, legales y sociales, revelando las vulnerabilidades y desafíos que acompañan a esta tecnología. Estos casos ofrecen lecciones valiosas sobre la necesidad de gestionar responsablemente la IA y establecer regulaciones efectivas para mitigar sus impactos negativos.

Vigilancia masiva y pérdida de privacidad: el caso de China

Contexto y uso de la IA en vigilancia

China se ha posicionado como uno de los países que más ha integrado sistemas de IA en la vigilancia pública. Con más del 65% de sus grandes ciudades utilizando reconocimiento facial y análisis de datos en tiempo real, el país ha desarrollado una infraestructura de control social sin precedentes. La tecnología permite monitorear movimientos, identificar individuos y predecir comportamientos, en nombre de la seguridad y el orden público.

Riesgos y controversias

Este despliegue ha generado preocupaciones sobre la privacidad y los derechos humanos. Organizaciones internacionales han denunciado que estas prácticas pueden conducir a una vigilancia masiva, limitando las libertades civiles y creando un estado de vigilancia permanente. Además, se han documentado casos en los que esta tecnología ha sido empleada para reprimir movimientos políticos o sociales, afectando la libertad de expresión y asociación.

Lecciones aprendidas y recomendaciones

Es fundamental establecer límites claros en el uso de tecnologías de vigilancia y garantizar la protección de derechos fundamentales. La transparencia en la implementación y el control independiente son pasos esenciales. Además, promover debates públicos y fortalecer las regulaciones nacionales e internacionales puede evitar abusos y fomentar un uso ético de la IA en la seguridad pública.

Sesgo algorítmico y discriminación: la problemática en Estados Unidos y Europa

El impacto del sesgo en procesos críticos

Uno de los riesgos más evidentes de la IA es el sesgo algorítmico, que puede conducir a decisiones discriminatorias en áreas como la selección laboral, préstamos bancarios o acceso a servicios públicos. En Estados Unidos y Europa, diversos estudios han evidenciado que aproximadamente el 24% de los sistemas evaluados presentan sesgos documentados, afectando especialmente a grupos vulnerables.

Casos emblemáticos y sus consecuencias

En 2024, un sistema de selección automatizada utilizado en varias empresas estadounidenses fue acusado de discriminar a candidatos de minorías étnicas, reduciendo sus probabilidades de ser considerados para un empleo. En Europa, ciertos algoritmos utilizados en el reconocimiento facial en procesos policiales han mostrado tasas de error más altas en personas de piel oscura, poniendo en duda su fiabilidad y equidad.

Acciones y recomendaciones

Para abordar estos desafíos, es esencial realizar auditorías independientes y transparentes en los algoritmos utilizados, además de promover la inclusión en el diseño de estas tecnologías. La regulación y las normativas que exijan la declaración de sesgos y su corrección son pasos clave para garantizar decisiones más justas y equitativas.

Desinformación impulsada por IA: el aumento de las campañas de manipulación en diferentes países

El fenómeno de la desinformación en la era digital

Desde 2023, se ha registrado un incremento del 48% en campañas de desinformación habilitadas por IA en todo el mundo. La capacidad de los bots y sistemas automatizados para generar contenido falso o manipulado ha desafiado la credibilidad de la información en plataformas digitales, afectando la opinión pública y las elecciones democráticas.

Casos destacados: elecciones y movimientos sociales

En 2024, en Brasil y Filipinas, se detectaron campañas masivas coordinadas para influir en procesos electorales, utilizando IA para crear noticias falsas, perfiles falsos y contenidos diseñados para polarizar a la población. Estas acciones han debilitado la confianza en las instituciones y han alimentado conflictos sociales.

Lecciones y estrategias para combatir la desinformación

Es crucial fortalecer los mecanismos de detección y eliminación de contenido manipulado, además de promover la alfabetización digital. La cooperación internacional y la regulación de plataformas digitales también juegan un papel fundamental para reducir el impacto de la desinformación generada por IA.

Impacto en el empleo y la economía: el caso del desempleo tecnológico en distintos países

Predicciones y realidades actuales

Para 2026, se estima que cerca del 36% de los empleos a nivel mundial enfrentan riesgo de automatización parcial o total. Países como Alemania, Japón y Estados Unidos ya están viviendo las primeras olas de desempleo tecnológico, especialmente en sectores tradicionales como la manufactura, logística y servicios administrativos.

Consecuencias sociales y económicas

Este fenómeno genera desigualdades económicas y sociales, con comunidades enteras enfrentando la pérdida de ingresos y oportunidades. La rápida automatización también presiona a los gobiernos para diseñar políticas de reconversión laboral y fortalecer la protección social.

Recomendaciones para un futuro laboral más inclusivo

Invertir en formación y capacitación en habilidades digitales, promover empleos en sectores emergentes y garantizar una red de seguridad social robusta son acciones clave. La colaboración público-privada puede facilitar la transición hacia un mercado laboral más inclusivo y resiliente ante los riesgos de la IA.

Conclusión: la importancia de un enfoque responsable y ético

Estos casos de estudio ilustran cómo la IA, a pesar de sus beneficios, puede generar riesgos sociales profundos si no se gestiona con responsabilidad. La clave está en implementar regulaciones eficaces, promover la transparencia y fomentar un debate ético amplio. Solo así podremos aprovechar el potencial de la IA para el bienestar social, minimizando sus efectos adversos y asegurando un desarrollo tecnológico que respete los derechos humanos y la cohesión social. En 2026, la experiencia de diferentes países reafirma la necesidad de un compromiso global en la regulación y uso ético de la inteligencia artificial, para construir una sociedad más justa y segura.

Predicciones futuras: ¿Qué riesgos sociales de la IA podemos esperar en los próximos años?

Introducción: Un panorama en evolución

La inteligencia artificial (IA) ha pasado de ser una tecnología emergente a convertirse en un componente integral de nuestras vidas. Desde asistentes virtuales hasta sistemas de vigilancia y algoritmos de decisión, su impacto social es innegable. Sin embargo, a medida que esta tecnología avanza, también emergen nuevos riesgos sociales que podrían definir el futuro de nuestra sociedad. En este artículo, exploraremos las tendencias y predicciones sobre los desafíos que traerá la evolución de la IA en los próximos años, y cómo podemos prepararnos para afrontarlos.

1. El impacto en el empleo y la economía: ¿un desempleo tecnológico sin precedentes?

El riesgo de automatización masiva

Uno de los riesgos sociales más discutidos en el contexto de la IA es el desempleo. Según las estimaciones más recientes, cerca del 36% de los empleos globales enfrentan riesgo de automatización parcial o total en la próxima década. Sectores como la manufactura, la logística, el transporte y los servicios administrativos ya están experimentando cambios significativos debido a la automatización impulsada por IA.

Por ejemplo, en 2026, los camiones autónomos y los robots en fábricas han reemplazado a millones de trabajadores en todo el mundo. Aunque esto aumenta la eficiencia y reduce costos para las empresas, también genera una crisis de empleo que puede profundizar las desigualdades sociales y económicas.

Desafíos para la política laboral y la protección social

Este escenario obliga a los gobiernos y a las instituciones a replantear sus políticas de protección social y capacitación laboral. La necesidad de programas de reconversión y educación continua será crucial para evitar que grandes segmentos de la población queden excluidos del mercado laboral.

Además, la automatización puede crear una polarización laboral, en la que solo unos pocos empleados altamente cualificados mantengan trabajos bien remunerados, mientras que la mayoría enfrenta inseguridad laboral y bajos salarios.

2. La privacidad y la vigilancia: un equilibrio cada vez más delicado

IA en sistemas de vigilancia urbana

El uso de la IA en sistemas de vigilancia se ha multiplicado en las principales ciudades del mundo. En 2026, aproximadamente el 65% de las grandes urbes utilizan reconocimiento facial y análisis de datos en tiempo real para monitorear espacios públicos. Aunque estas tecnologías prometen mejorar la seguridad, también plantean serias preocupaciones sobre la privacidad y los derechos civiles.

Casos recientes muestran cómo la vigilancia masiva puede ser utilizada para controlar a las poblaciones, limitar libertades y generar un estado de vigilancia constante. La percepción de estar siempre observados puede afectar la libertad individual y la confianza en las instituciones públicas.

Desafíos regulatorios y resistencia social

Frente a estos riesgos, la regulación de la vigilancia basada en IA se vuelve fundamental. Algunos países han establecido límites claros, pero en muchos otros, la falta de legislación efectiva permite prácticas invasivas. La resistencia social también crece, con movimientos que exigen mayor transparencia y control ciudadano sobre estas tecnologías.

La protección de la privacidad en la era de la IA requerirá una combinación de regulación, innovación tecnológica para proteger datos y una ciudadanía informada y activa en la defensa de sus derechos digitales.

3. Sesgo algorítmico y discriminación: la sombra de la IA en la igualdad social

Sesgos en decisiones automatizadas

Uno de los riesgos más insidiosos de la IA es el sesgo algorítmico. En 2026, se ha documentado que el 24% de los sistemas evaluados muestran sesgos en decisiones relacionadas con la selección de personal, acceso a servicios financieros y justicia penal. Estos sesgos reflejan, en muchos casos, prejuicios humanos que quedan incrustados en los datos de entrenamiento de los algoritmos.

Por ejemplo, en procesos de selección laboral, ciertos perfiles minoritarios enfrentan discriminación automática, perpetuando desigualdades históricas. La discriminación algorítmica puede ampliar las brechas sociales si no se implementan mecanismos efectivos para detectar y corregir estos sesgos.

Necesidad de regulación y auditorías éticas

Para mitigar estos riesgos, la regulación en materia de transparencia y auditoría de algoritmos será prioritaria. Se están creando organismos independientes que revisan los sistemas de IA y verifican que no perpetúen discriminación. La ética en IA y la inclusión en el diseño de sistemas serán claves para reducir los efectos nocivos del sesgo.

4. Desinformación y manipulación social: la doble cara de la IA

Campañas de desinformación más sofisticadas

Desde 2023 hasta 2026, ha habido un incremento del 48% en campañas de desinformación habilitadas por IA. La generación automática de noticias falsas, videos manipulados y perfiles falsos en redes sociales ha facilitado la difusión de contenido engañoso a una escala sin precedentes.

Este fenómeno puede socavar procesos democráticos, influir en elecciones y crear polarización social. La capacidad de la IA para producir contenido convincente y personalizado hace que distinguir entre verdad y mentira sea cada vez más difícil para el público general.

Respuestas sociales y tecnológicas

Frente a estos riesgos, se están desarrollando herramientas de detección de desinformación y regulaciones que exigen mayor responsabilidad a las plataformas digitales. La alfabetización digital y la educación en medios serán esenciales para fortalecer la resistencia social ante la manipulación algorítmica.

5. El futuro de la regulación y la ética en la IA

Avances en regulación internacional

En 2026, más de 30 países han implementado leyes específicas para gestionar los riesgos sociales de la IA, enfocándose en la protección de datos, la transparencia y la ética. La creación de marcos regulatorios internacionales busca estandarizar prácticas responsables y evitar una carrera por la innovación sin control ético.

Desafíos y oportunidades

El principal reto será mantener un equilibrio entre innovación y protección social. La regulación no debe frenar el desarrollo tecnológico, sino guiarlo hacia un uso responsable. La participación activa de la sociedad civil, académicos y expertos en ética será determinante para construir un marco regulatorio efectivo.

Conclusión: Preparándonos para un futuro incierto

La evolución de la IA trae consigo riesgos sociales que pueden transformar radicalmente nuestra convivencia y estructura social si no se gestionan adecuadamente. La automatización, la vigilancia, el sesgo y la desinformación son solo algunos de los desafíos que debemos afrontar con políticas sólidas, regulación efectiva y una ciudadanía informada y activa.

El futuro del impacto social de la IA dependerá en gran medida de cómo respondamos a estos riesgos hoy. La responsabilidad recae en gobiernos, empresas, sociedad civil y en cada uno de nosotros para construir un camino que priorice la ética, la protección de derechos y la inclusión en esta era digital en constante transformación.

Herramientas y recursos para evaluar y mitigar los riesgos sociales de la IA

Introducción: la importancia de evaluar y mitigar los riesgos sociales de la IA

La inteligencia artificial (IA) ha dejado de ser una tecnología de nicho para convertirse en un componente central de la vida moderna. Sin embargo, junto con sus beneficios, emergen riesgos sociales que amenazan la estabilidad social, los derechos humanos y la ética. Desde el desempleo por automatización hasta la vigilancia masiva, estos desafíos requieren soluciones concretas y accesibles para todos los actores involucrados: desarrolladores, reguladores y ciudadanos.

En 2026, los riesgos sociales de la IA se han intensificado, con estimaciones que indican que cerca del 36% de los empleos globales enfrentan riesgos de automatización parcial o total en la próxima década. Además, el uso de IA en vigilancia en grandes ciudades genera preocupaciones sobre la privacidad, mientras que los casos de sesgo algorítmico y campañas de desinformación impulsadas por IA aumentan la necesidad de contar con herramientas efectivas para evaluar y gestionar estos riesgos.

Este artículo presenta las principales herramientas, frameworks y recursos disponibles en la actualidad para enfrentar estos desafíos y fomentar un desarrollo responsable y ético de la inteligencia artificial.

Frameworks y estándares para evaluar los riesgos sociales de la IA

1. Guías internacionales y normativas éticas

En respuesta a la creciente preocupación por los riesgos sociales, diversas organizaciones internacionales han desarrollado guías, estándares y marcos regulatorios que ayudan a evaluar y mitigar estos riesgos. La OCDE, por ejemplo, publicó en 2024 el Framework para una IA confiable, que establece principios para la inclusión, transparencia y protección de derechos humanos.

Asimismo, la Unión Europea ha avanzado en la regulación de la IA con el Reglamento de la UE sobre la inteligencia artificial, que clasifica los sistemas en función del riesgo y establece requisitos para reducir sesgos, asegurar la trazabilidad y promover la supervisión humana.

Estos marcos ofrecen una base sólida para que reguladores y desarrolladores creen políticas y procedimientos efectivos para evaluar riesgos sociales, como discriminación algorítmica o pérdida de privacidad.

2. Herramientas de auditoría algorítmica

Las auditorías de algoritmos son esenciales para detectar sesgos y evaluar la equidad de los sistemas de IA. Herramientas como AI Fairness 360 de IBM y Fairlearn permiten a los desarrolladores analizar si sus modelos discriminan a ciertos grupos sociales en función de variables como género, raza o edad.

Estas plataformas facilitan la identificación de sesgos en datos y decisiones automatizadas, y ofrecen recomendaciones para ajustar los modelos y reducir el impacto social negativo.

Por ejemplo, en procesos de selección laboral, estas herramientas ayudan a garantizar que los algoritmos no discriminen a candidatos por características protegidas, mitigando riesgos de discriminación algorítmica.

3. Evaluaciones de impacto social y ético

Otra estrategia clave consiste en realizar evaluaciones de impacto social (EIS) antes de desplegar tecnologías de IA. Estas evaluaciones analizan cómo un sistema puede afectar diferentes aspectos de la sociedad, incluyendo empleo, privacidad y equidad.

El uso de frameworks como el AI Impact Assessment desarrollado por la UNESCO permite a las organizaciones identificar riesgos específicos y definir medidas de mitigación desde las etapas iniciales del desarrollo.

Implementar estas evaluaciones promueve la transparencia y la responsabilidad, ayudando a evitar consecuencias no deseadas y a construir confianza en las tecnologías de IA.

Recursos y herramientas prácticas para ciudadanos y reguladores

1. Plataformas de participación ciudadana

Los ciudadanos tienen un papel fundamental en la evaluación social de la IA. Plataformas digitales como ParticipaIA o DecideAI permiten a las comunidades expresar preocupaciones y proponer regulaciones específicas sobre el uso de IA en ámbitos locales y nacionales.

Estas plataformas fomentan la transparencia y la inclusión en la toma de decisiones, brindando un espacio para que las voces de grupos vulnerables sean consideradas en la formulación de políticas públicas.

2. Recursos educativos y de sensibilización

Para comprender y evaluar mejor los riesgos sociales, es fundamental que los actores involucrados tengan acceso a información clara y actualizada. Instituciones como el AI Now Institute o Electronic Frontier Foundation ofrecen informes, cursos y webinars gratuitos que explican los desafíos éticos y sociales de la IA.

Además, plataformas como Coursera o edX han desarrollado programas especializados en ética en IA y regulación, que ayudan a formar una ciudadanía informada y comprometida con la protección de derechos sociales.

3. Recursos para reguladores y legisladores

En 2026, la tendencia indica un aumento en la regulación de la IA en más de 30 países. Para facilitar este proceso, existen recursos como el Toolkit para Reguladores de la IA de la OCDE, que incluye guías, ejemplos de buenas prácticas y modelos de regulación adaptados a diferentes contextos.

Estos recursos permiten a los legisladores diseñar marcos legales que equilibren innovación y protección social, asegurando que los sistemas de IA sean transparentes, justos y responsables.

Innovaciones y tendencias en herramientas para mitigar riesgos sociales

En 2026, se observan avances tecnológicos que facilitan la evaluación y mitigación de riesgos sociales. Por ejemplo, los modelos explicables de IA permiten entender cómo toman decisiones los algoritmos, reduciendo la opacidad y facilitando auditorías sociales.

Asimismo, las plataformas de blockchain se están empleando para crear registros inmutables de decisiones automatizadas, promoviendo la transparencia y la rendición de cuentas.

La integración de estas innovaciones en los procesos regulatorios y de desarrollo será clave para afrontar los desafíos sociales de la IA en el futuro cercano.

Conclusión: un camino hacia una IA responsable y socialmente consciente

El desarrollo de herramientas y recursos adecuados es fundamental para evaluar y mitigar los riesgos sociales de la IA. La colaboración entre reguladores, desarrolladores y ciudadanos, apoyada en marcos éticos, auditorías y plataformas participativas, permitirá construir una inteligencia artificial que beneficie a la sociedad sin comprometer derechos fundamentales.

En un contexto en el que cerca del 36% de los empleos y múltiples aspectos de la privacidad están en juego, la responsabilidad compartida y el uso de herramientas efectivas marcarán la diferencia para un futuro donde la IA sea un aliado para el bienestar social y la justicia.

El papel de la sociedad civil y la educación en la gestión de los riesgos sociales de la IA

La participación activa de la sociedad civil: un elemento clave en la regulación social de la IA

La inteligencia artificial (IA) está transformando todos los aspectos de nuestra vida cotidiana, pero también trae consigo riesgos sociales que no pueden ser gestionados únicamente por gobiernos y empresas tecnológicas. La sociedad civil —incluyendo organizaciones no gubernamentales, asociaciones profesionales, grupos comunitarios y ciudadanos informados— desempeña un papel fundamental en la identificación, vigilancia y regulación de estos riesgos.

Actualmente, en 2026, los riesgos sociales de la IA han alcanzado niveles que demandan una participación activa de la ciudadanía. Por ejemplo, el uso de IA en sistemas de vigilancia para monitoreo urbano afecta la privacidad de millones, como sucede en el 65% de las grandes ciudades que emplean reconocimiento facial para control y seguridad. La sociedad civil puede actuar como contrapeso, exigiendo transparencia y límites claros en el uso de estas tecnologías.

Además, la participación ciudadana en espacios públicos y foros digitales ayuda a visibilizar sesgos algorítmicos, que afectan decisiones en procesos de selección laboral, acceso a servicios y justicia. El 24% de los sistemas automatizados evaluados en 2026 muestran discriminación algorítmica, muchas veces sin la conciencia de los afectados. La sociedad civil puede impulsar campañas de sensibilización y promover la vigilancia ciudadana para detectar y denunciar estos sesgos.

Por otra parte, la movilización social puede presionar a los legisladores para que implementen regulaciones más estrictas y éticas, en línea con los estándares internacionales. La participación activa de la ciudadanía en debates públicos y consultas abiertas fortalece la gobernanza democrática de la inteligencia artificial, asegurando que las políticas públicas reflejen las preocupaciones sociales y éticas.

La educación como herramienta fundamental para la gestión de riesgos sociales de la IA

Conciencia social y alfabetización digital

La educación desempeña un papel crucial en la gestión de los riesgos sociales de la IA, ya que prepara a la ciudadanía para comprender, cuestionar y actuar frente a los desafíos que plantea esta tecnología. La alfabetización digital y la educación en ética tecnológica deben ser prioridad en los sistemas educativos formales e informales.

En 2026, la desinformación generada por IA ha aumentado en un 48% desde 2023, evidenciando la necesidad de educar a las personas en la identificación y evaluación crítica de la información digital. La alfabetización digital ayuda a distinguir noticias falsas, entender cómo funcionan los algoritmos y reconocer cuándo una decisión automatizada puede ser sesgada o injusta.

Por ejemplo, si los ciudadanos comprenden cómo los sesgos algorítmicos pueden afectar sus oportunidades laborales o acceso a servicios, podrán exigir mayor transparencia y justicia en los sistemas automatizados. La educación también fomenta la participación activa en debates sobre regulación y ética en IA, promoviendo una ciudadanía informada y responsable.

Programas educativos y formación en ética de IA

Para afrontar los riesgos sociales, es fundamental que los programas de formación incluyan contenidos sobre ética en inteligencia artificial, protección de datos y derechos humanos digitales. La formación de profesionales en ética tecnológica, desarrolladores y responsables políticos asegura que las soluciones de IA sean diseñadas y desplegadas con responsabilidad social.

Algunas instituciones y organizaciones ya ofrecen cursos especializados en estos temas, pero en 2026 aún se requiere ampliar la formación en todos los niveles educativos, desde la escuela primaria hasta la formación profesional y universitaria. La integración de estos contenidos en las currículas facilitará la creación de una cultura de responsabilidad y conciencia social en el desarrollo y uso de la IA.

Además, promover la educación en participación ciudadana y derechos digitales, mediante talleres, seminarios y campañas públicas, fortalece la capacidad de la sociedad civil para influir en la regulación y supervisión de la IA, garantizando que su impacto social sea positivo y justo.

Construyendo una cultura de responsabilidad y ética social

La gestión de los riesgos sociales de la IA requiere no solo regulación y educación, sino también un cambio cultural. Es necesario promover una cultura que valore la responsabilidad social, la ética y la transparencia en el desarrollo y aplicación de la inteligencia artificial.

La sociedad civil puede impulsar campañas que sensibilicen sobre los posibles daños y beneficios de la IA, fomentando debates abiertos y promoviendo la responsabilidad social empresarial. La colaboración entre organizaciones, academia, gobiernos y ciudadanía puede crear un ecosistema donde la innovación tecnológica esté alineada con los valores sociales y éticos.

Además, la creación de espacios de diálogo y participación ciudadana en la formulación de políticas públicas, junto con la educación en derechos digitales, facilitará que las comunidades puedan ejercer un control democrático sobre las tecnologías de IA, evitando riesgos como la vigilancia masiva, la discriminación algorítmica y la desinformación.

Acciones concretas para fortalecer el papel de la sociedad civil y la educación

  • Fomentar campañas de alfabetización digital y ética tecnológica: Promover programas que enseñen a los ciudadanos a identificar riesgos, sesgos y manipulación en la información generada por IA.
  • Apoyar y fortalecer organizaciones civiles: Financiar y respaldar iniciativas que monitoreen y denuncien usos abusivos de la IA en vigilancia, discriminación o manipulación social.
  • Involucrar a la comunidad en la elaboración de políticas públicas: Facilitar foros, consultas y debates públicos donde la ciudadanía pueda expresar sus inquietudes y propuestas.
  • Integrar la ética en la formación profesional: Incorporar contenidos sobre responsabilidad social y derechos humanos en carreras relacionadas con tecnología, derecho y ciencias sociales.
  • Desarrollar recursos y plataformas abiertas: Crear espacios digitales donde los ciudadanos puedan acceder a información, denunciar riesgos y colaborar en propuestas de regulación.

Estas acciones, combinadas con un compromiso constante por parte de instituciones educativas, gobiernos y organizaciones sociales, pueden fortalecer el papel de la sociedad civil y promover una cultura de responsabilidad que mitigue los riesgos sociales de la IA.

Conclusión

El futuro del trabajo, la privacidad, la ética y la cohesión social en la era de la inteligencia artificial dependen en gran medida de la participación activa de la sociedad civil y de una educación de calidad que prepare a las personas para los desafíos que plantea la IA. La vigilancia social, la regulación democrática y la conciencia ética son herramientas indispensables para gestionar los riesgos sociales de la IA en 2026 y más allá. Solo mediante un esfuerzo conjunto, informado y responsable, podremos aprovechar los beneficios de la inteligencia artificial sin sacrificar nuestros derechos y valores sociales.

Riesgos sociales de la IA: Impacto en empleo, privacidad y ética

Riesgos sociales de la IA: Impacto en empleo, privacidad y ética

Descubre cómo los riesgos sociales de la inteligencia artificial, como el desempleo tecnológico, sesgo algorítmico y vigilancia, están transformando nuestra sociedad. Utiliza análisis impulsados por IA para entender las implicaciones éticas y regulatorias en 2026 y más allá.

Preguntas Frecuentes

Los riesgos sociales de la inteligencia artificial se refieren a los impactos negativos que esta tecnología puede tener en la sociedad, como el aumento del desempleo, la pérdida de privacidad, el sesgo en decisiones automatizadas y la desinformación. Estos riesgos son importantes porque afectan la estabilidad social, los derechos humanos y la equidad, además de plantear desafíos éticos y regulatorios. En 2026, por ejemplo, cerca del 36% de los empleos enfrentan riesgo de automatización, y el uso de IA en vigilancia genera preocupaciones sobre la privacidad. Entender estos riesgos ayuda a diseñar políticas y prácticas que minimicen los daños y promuevan un desarrollo responsable de la IA.

Para proteger tu privacidad frente a la vigilancia y reconocimiento facial impulsados por IA, es recomendable limitar la exposición en espacios públicos, usar tecnologías de protección de datos y ser consciente de las políticas de privacidad. Además, puedes apoyar y exigir regulaciones que restrinjan el uso indiscriminado de estas tecnologías y promover la transparencia en su implementación. Participar en debates públicos y apoyar organizaciones que luchan por derechos digitales también ayuda a fortalecer la protección de la privacidad en un entorno cada vez más vigilado.

La inteligencia artificial ofrece beneficios sociales significativos, como mejorar la eficiencia en servicios públicos, facilitar diagnósticos médicos precisos, optimizar procesos de transporte y reducir costos en diversas áreas. Además, puede democratizar el acceso a la información y la educación, y potenciar soluciones para problemas complejos como el cambio climático. Sin embargo, estos beneficios deben equilibrarse con una gestión responsable de los riesgos sociales, promoviendo la ética y la regulación adecuada para maximizar los impactos positivos.

Los principales riesgos sociales de la IA incluyen el desempleo tecnológico, debido a la automatización de trabajos, el sesgo algorítmico que puede discriminar a ciertos grupos, y la vigilancia masiva que compromete la privacidad. También está el aumento en campañas de desinformación y la posible pérdida de confianza en las instituciones. Estos riesgos pueden generar desigualdades sociales, conflictos laborales y una mayor polarización, afectando la cohesión social y los derechos fundamentales. Es crucial implementar regulaciones y prácticas éticas para mitigar estos efectos.

Para reducir los riesgos sociales de la IA, se recomienda promover la transparencia en los algoritmos, realizar auditorías para detectar sesgos y garantizar la inclusión en los procesos de diseño. Es importante también establecer regulaciones que protejan la privacidad y los derechos humanos, fomentar la participación pública en la toma de decisiones sobre IA y capacitar a los desarrolladores en ética. La colaboración entre gobiernos, empresas y sociedad civil es esencial para crear un marco responsable y ético en el uso de estas tecnologías.

Los riesgos sociales de la IA se diferencian por su capacidad de afectar decisiones automatizadas, crear sesgos en procesos críticos y facilitar la vigilancia masiva, aspectos que no son tan prevalentes en otras tecnologías. Mientras que tecnologías como la blockchain o la biotecnología también presentan riesgos, la IA tiene un impacto directo en empleo, privacidad y ética debido a su capacidad de aprendizaje y adaptación. Además, su uso en campañas de desinformación y en sistemas de reconocimiento facial la hace especialmente problemática en términos sociales y éticos.

En 2026, más de 30 países han implementado regulaciones específicas para gestionar los riesgos sociales de la IA, enfocándose en la protección de datos, la transparencia y la ética. Se están promoviendo marcos internacionales para estandarizar prácticas responsables y limitar el uso de IA en vigilancia excesiva y decisiones automatizadas sin supervisión humana. Además, crecen las iniciativas para crear comités de ética y auditorías independientes, y se fomenta la educación sobre los riesgos sociales para desarrollar una ciudadanía informada y activa en la regulación de la IA.

Para profundizar en los riesgos sociales de la IA, existen numerosos recursos como informes de organismos internacionales (ONU, OCDE), publicaciones académicas y cursos en línea especializados en ética y regulación de IA. Organizaciones como AI Now Institute y Electronic Frontier Foundation ofrecen análisis y guías actualizadas. Además, participar en conferencias, webinars y seguir a expertos en ética tecnológica ayuda a mantenerse informado. En Bilgesam.com, también puedes encontrar artículos y recursos que abordan estos temas desde una perspectiva social y ética.

Prompts Sugeridos

Noticias Relacionadas

Respuestas instantáneasSoporte multi-idiomaConciencia del contexto
Público

Riesgos sociales de la IA: Impacto en empleo, privacidad y ética

Descubre cómo los riesgos sociales de la inteligencia artificial, como el desempleo tecnológico, sesgo algorítmico y vigilancia, están transformando nuestra sociedad. Utiliza análisis impulsados por IA para entender las implicaciones éticas y regulatorias en 2026 y más allá.

Riesgos sociales de la IA: Impacto en empleo, privacidad y ética
96 vistas

Guía básica sobre los riesgos sociales de la IA para principiantes

Una introducción clara y sencilla a los riesgos sociales de la inteligencia artificial, ideal para quienes comienzan a explorar el tema y desean entender sus conceptos fundamentales.

Impacto de la IA en el mercado laboral: desempleo y transformación del empleo

Análisis profundo de cómo la automatización y la inteligencia artificial están afectando el empleo, incluyendo estadísticas recientes y proyecciones futuras para diferentes sectores.

Sesgo algorítmico y discriminación: desafíos éticos en la IA socialmente responsable

Explora cómo el sesgo en los algoritmos puede generar discriminación en procesos de selección, acceso a servicios y decisiones sociales, y qué medidas se están tomando para mitigar estos riesgos.

Vigilancia masiva y privacidad en la era de la IA: ¿cómo proteger tus derechos?

Una revisión de las preocupaciones sobre la vigilancia con IA en las ciudades y en la vida cotidiana, junto con estrategias y herramientas para proteger la privacidad personal.

La desinformación impulsada por IA: riesgos y estrategias de combate en 2026

Analiza cómo la IA ha facilitado campañas de desinformación, sus implicaciones sociales y qué acciones se están implementando para contrarrestar las noticias falsas en diferentes plataformas.

Regulación y políticas públicas para gestionar los riesgos sociales de la IA en 2026

Un análisis de las tendencias regulatorias en más de 30 países, incluyendo nuevas leyes y estándares para garantizar un uso ético y seguro de la inteligencia artificial.

Casos de estudio: cómo la IA ha generado riesgos sociales en diferentes países

Revisión de casos específicos donde el uso de IA ha provocado controversias sociales, ética o legales, ofreciendo lecciones aprendidas y recomendaciones.

Predicciones futuras: ¿Qué riesgos sociales de la IA podemos esperar en los próximos años?

Explora las tendencias y predicciones sobre los desafíos sociales que traerá la evolución de la IA, incluyendo posibles escenarios y cómo prepararse para ellos.

Herramientas y recursos para evaluar y mitigar los riesgos sociales de la IA

Presenta las principales herramientas, frameworks y recursos disponibles para desarrolladores, reguladores y ciudadanos que quieran entender y reducir los riesgos sociales de la IA.

El papel de la sociedad civil y la educación en la gestión de los riesgos sociales de la IA

Analiza cómo la participación ciudadana, la educación y la conciencia social son clave para afrontar y regular los riesgos sociales asociados con la inteligencia artificial.

Prompts Sugeridos

  • Análisis de riesgos en empleo por IA en 2026Evaluación de la probabilidad y sectores afectados por automatización y desempleo tecnológico en 2026.
  • Evaluación del sesgo algorítmico y discriminaciónAnálisis de la prevalencia del sesgo en sistemas de IA y su impacto en decisiones sociales en 2026.
  • Análisis de privacidad y vigilancia con IAEvaluación del uso de IA en vigilancia urbana y sus efectos en la privacidad ciudadana en 2026.
  • Análisis de campañas de desinformación habilitadas por IAEstudio de la expansión y riesgo de campañas de desinformación generadas por IA en 2026.
  • Regulación y ética en impactos sociales de la IAAnálisis de las regulaciones emergentes y desafíos éticos en riesgos sociales de 2026.
  • Tendencias de percepción social sobre riesgos de IAAnálisis del sentimiento y percepción pública respecto a los riesgos sociales de la IA en 2026.
  • Estrategias para mitigación de riesgos sociales de IARecomendaciones y análisis de estrategias para reducir riesgos sociales en 2026.
  • Oportunidades en regulación y ética de riesgos socialesAnálisis de oportunidades para mejorar la regulación y ética en la gestión de riesgos sociales de IA en 2026.

topics.faq

¿Qué son los riesgos sociales de la inteligencia artificial y por qué son importantes?
Los riesgos sociales de la inteligencia artificial se refieren a los impactos negativos que esta tecnología puede tener en la sociedad, como el aumento del desempleo, la pérdida de privacidad, el sesgo en decisiones automatizadas y la desinformación. Estos riesgos son importantes porque afectan la estabilidad social, los derechos humanos y la equidad, además de plantear desafíos éticos y regulatorios. En 2026, por ejemplo, cerca del 36% de los empleos enfrentan riesgo de automatización, y el uso de IA en vigilancia genera preocupaciones sobre la privacidad. Entender estos riesgos ayuda a diseñar políticas y prácticas que minimicen los daños y promuevan un desarrollo responsable de la IA.
¿Cómo puedo proteger mi privacidad frente al uso de IA en vigilancia y reconocimiento facial?
Para proteger tu privacidad frente a la vigilancia y reconocimiento facial impulsados por IA, es recomendable limitar la exposición en espacios públicos, usar tecnologías de protección de datos y ser consciente de las políticas de privacidad. Además, puedes apoyar y exigir regulaciones que restrinjan el uso indiscriminado de estas tecnologías y promover la transparencia en su implementación. Participar en debates públicos y apoyar organizaciones que luchan por derechos digitales también ayuda a fortalecer la protección de la privacidad en un entorno cada vez más vigilado.
¿Cuáles son los beneficios sociales de la inteligencia artificial a pesar de sus riesgos?
La inteligencia artificial ofrece beneficios sociales significativos, como mejorar la eficiencia en servicios públicos, facilitar diagnósticos médicos precisos, optimizar procesos de transporte y reducir costos en diversas áreas. Además, puede democratizar el acceso a la información y la educación, y potenciar soluciones para problemas complejos como el cambio climático. Sin embargo, estos beneficios deben equilibrarse con una gestión responsable de los riesgos sociales, promoviendo la ética y la regulación adecuada para maximizar los impactos positivos.
¿Cuáles son los principales riesgos sociales asociados con la IA y cómo pueden afectar a la sociedad?
Los principales riesgos sociales de la IA incluyen el desempleo tecnológico, debido a la automatización de trabajos, el sesgo algorítmico que puede discriminar a ciertos grupos, y la vigilancia masiva que compromete la privacidad. También está el aumento en campañas de desinformación y la posible pérdida de confianza en las instituciones. Estos riesgos pueden generar desigualdades sociales, conflictos laborales y una mayor polarización, afectando la cohesión social y los derechos fundamentales. Es crucial implementar regulaciones y prácticas éticas para mitigar estos efectos.
¿Qué prácticas recomendadas existen para reducir los riesgos sociales de la IA en su desarrollo e implementación?
Para reducir los riesgos sociales de la IA, se recomienda promover la transparencia en los algoritmos, realizar auditorías para detectar sesgos y garantizar la inclusión en los procesos de diseño. Es importante también establecer regulaciones que protejan la privacidad y los derechos humanos, fomentar la participación pública en la toma de decisiones sobre IA y capacitar a los desarrolladores en ética. La colaboración entre gobiernos, empresas y sociedad civil es esencial para crear un marco responsable y ético en el uso de estas tecnologías.
¿En qué se diferencian los riesgos sociales de la IA respecto a otras tecnologías emergentes?
Los riesgos sociales de la IA se diferencian por su capacidad de afectar decisiones automatizadas, crear sesgos en procesos críticos y facilitar la vigilancia masiva, aspectos que no son tan prevalentes en otras tecnologías. Mientras que tecnologías como la blockchain o la biotecnología también presentan riesgos, la IA tiene un impacto directo en empleo, privacidad y ética debido a su capacidad de aprendizaje y adaptación. Además, su uso en campañas de desinformación y en sistemas de reconocimiento facial la hace especialmente problemática en términos sociales y éticos.
¿Cuáles son las últimas tendencias en regulación y control de los riesgos sociales de la IA en 2026?
En 2026, más de 30 países han implementado regulaciones específicas para gestionar los riesgos sociales de la IA, enfocándose en la protección de datos, la transparencia y la ética. Se están promoviendo marcos internacionales para estandarizar prácticas responsables y limitar el uso de IA en vigilancia excesiva y decisiones automatizadas sin supervisión humana. Además, crecen las iniciativas para crear comités de ética y auditorías independientes, y se fomenta la educación sobre los riesgos sociales para desarrollar una ciudadanía informada y activa en la regulación de la IA.
¿Qué recursos existen para quienes quieren aprender más sobre los riesgos sociales de la IA?
Para profundizar en los riesgos sociales de la IA, existen numerosos recursos como informes de organismos internacionales (ONU, OCDE), publicaciones académicas y cursos en línea especializados en ética y regulación de IA. Organizaciones como AI Now Institute y Electronic Frontier Foundation ofrecen análisis y guías actualizadas. Además, participar en conferencias, webinars y seguir a expertos en ética tecnológica ayuda a mantenerse informado. En Bilgesam.com, también puedes encontrar artículos y recursos que abordan estos temas desde una perspectiva social y ética.

Noticias Relacionadas

  • Nuevos riesgos regulatorios para las empresas por la IA - Revista Byte TIRevista Byte TI

    <a href="https://news.google.com/rss/articles/CBMifEFVX3lxTFBDVlNaQ0VXUWdaRXlmUmtOSHlMcXZUWk5hMjFOWVJSZ1d5Wkw4N0pOVHZKTGJBV3RmZmgxWmxGNmR3RzVDeS1KR1ZUN3VpWXlhUTBRa3k5UUtIYkNUbmtMWXdWdF9vUHNOaHg1STA5TlhyOGxmTzkxY1JwQWE?oc=5" target="_blank">Nuevos riesgos regulatorios para las empresas por la IA</a>&nbsp;&nbsp;<font color="#6f6f6f">Revista Byte TI</font>

  • China advierte a empleados estatales sobre riesgos de seguridad del agente de IA OpenClaw - TradingViewTradingView

    <a href="https://news.google.com/rss/articles/CBMiZkFVX3lxTFBVV1N1SXFkajN1WFlDbHhodVBWRS1WWEVCa0hyUjlxS011MjE2dWhGT1ZZTnJ3SDc3Q3RQQS0tUS01WjhCSTFQX2JPNnV6dUdjRU4zSUFhZFdmMUJtQ1JnR3R1R3p4dw?oc=5" target="_blank">China advierte a empleados estatales sobre riesgos de seguridad del agente de IA OpenClaw</a>&nbsp;&nbsp;<font color="#6f6f6f">TradingView</font>

  • 'IA washing', un riesgo creciente para la reputación de marca - expansion.mxexpansion.mx

    <a href="https://news.google.com/rss/articles/CBMinwFBVV95cUxObkdSZmFYcFdVeFlYRXYxS3d0NDdKQ2tnQkMwNjhlOS01MlZadnE4U0tQUEpaUC1FRGJGclBPUTNIby1aTTl6TWxLRDd4VjE0SnlhbkpBZU4yZWtLU3k3aXVrRWYySG9qTEFXd21wY2o1YnhMQlV2a3liMElJWFZVcHk3d0l4LXJxdGJBWERQVU5vakJfc04tbVNrRHU5VnPSAawBQVVfeXFMUGZ0LW8wVUU5dTUyVzBiQVlnek85Q282VEh6ZnRWYXM4QXA0N3VlSGFwQ0JGcEFZcW5HNHRHVkstNDdhVWlTRXRTalZqdnJLeFUwNl9lekRBNTMxbjhpQ2pwdV9LZnNSWUVwa0pySHQyMm9yeGJEZ1htVnBpcGk1NGRaQ3N4c0tINGZlMzg1UFo0ZHI4RmdyYnBQNHg2MC1IbFNEbUtQaXRsV05OVw?oc=5" target="_blank">'IA washing', un riesgo creciente para la reputación de marca</a>&nbsp;&nbsp;<font color="#6f6f6f">expansion.mx</font>

  • La IA no es tu niñera: pediatras alertan del riesgo de que los niños vean a los chatbots como amigos - La VanguardiaLa Vanguardia

    <a href="https://news.google.com/rss/articles/CBMivgFBVV95cUxOOTIxMDBWNk5Tdmo5bEN3OXdBQ215LU1IaFJwSXVKdXdmc0otSWFnVUZHR0JXVlNMVHJXRTFtVlIyZm1SelRoRXI0eG5Dc1ZRM0tKbVFFVzNBOF9IZWlOeWhJUHJoS0xBcEdoaXBnS2FVZVBxZE5kbnlpenNtVU50WWk2bXg1LW53M3pnMWZNdVRPUGx2Z1VKLVdCQnpMc2xBX1lSdUVQZ0xiLU5XVGlDR2g3WkhhempiR0lnM3VB?oc=5" target="_blank">La IA no es tu niñera: pediatras alertan del riesgo de que los niños vean a los chatbots como amigos</a>&nbsp;&nbsp;<font color="#6f6f6f">La Vanguardia</font>

  • El desastre de la IA se acerca cada vez más - Líder ActualLíder Actual

    <a href="https://news.google.com/rss/articles/CBMilAFBVV95cUxQUmFUclJVNnZJMGl6Rm0yTVA4T211dk5aSVhWNGhqSTQyMjlmRjkwOGJMSGlRUGZsclRucm1qVS1PWXhQbHhISVdOVTNtM2FfdEhTVFhENFRuQ043M0toa1BfdW9LQjBvU0RDSHpnT3NBQkJqSkRDZDE0aUhYZ2tjM2ZwZ1Nmc1V2RFRLLUhZRVJaOXJV?oc=5" target="_blank">El desastre de la IA se acerca cada vez más</a>&nbsp;&nbsp;<font color="#6f6f6f">Líder Actual</font>

  • Los agentes del caos: un riesgo sistémico de la inteligencia artificial - Le Grand ContinentLe Grand Continent

    <a href="https://news.google.com/rss/articles/CBMiswFBVV95cUxPV1BNZTZydjNuZ2lrMktWUjRJb3hkZk1WcVNtRUxrVnVSZUpzWl9adTRoSXlyUjJrV3F4aXN1X2VhUlVrSUJtTDE1T0NCbm10QU96RUVkS0twMDNVTnpQT2xHaXRyR0Z3NGRzbFUwc3ozQlZyVnNMOU5WTjRVSWJ0U1BVaHhNaTVJbHV6MEFYRGxiWVlfYnI4UVJVbUtNQ0dLSTN4ejFOOG1GT3dYR0Z4Rl9Kaw?oc=5" target="_blank">Los agentes del caos: un riesgo sistémico de la inteligencia artificial</a>&nbsp;&nbsp;<font color="#6f6f6f">Le Grand Continent</font>

  • ChatGPT Health falla al detectar emergencias médicas - El UniversalEl Universal

    <a href="https://news.google.com/rss/articles/CBMi7wFBVV95cUxQMG1uOXU1bHl3UVpacElnTHVTYnpseGdxbmQ0dlBBWmlmaU1UcTFmNWJMNWRVc3kyZl9wb3dzSUtwYWZ5eUNScFBTb05ZLU9TaUlYQVhCYXRYM0NwQ09jOHYtZlpZTFZ1MW9NZU9qdkxha1N6MGk1YVlpcGt6MEdLSHR0UXNrUTJmTkQzdFdZNm5kdTNFOGswTUY3dDFBeHhicG1ZQUVDWms0Y0M5Wmx1a2pTTE5rRGQ1LWg2aFExZVIwX1lwd2FMZU14blVkZmNHaTVzVFJJUmdBMlRydFFmV3A2QXVrUlZoUTRPaHc0TdIBgwJBVV95cUxQb2RkMDlpUzBfWVVHMzJTRF9aZ3FuREVlRlFHOXFrUVlKbU4zcHpINlRoNFF1R3hoUktITUpNVG05T05rQWF5T1dlYjIxWmRuOGIwR1BEc2w3X1ZpN3VGLWZLNFF0aERCZGRPc2J5bGxsZVd6c1c4V0dWUzVRZjR4Q0w0S3ZPQ25mTWNtVE8waHJ3TUdrbEFvUkJpanNfSTZBMUZZZko5Wmg3cXY4cmtsNUdoUjJsc1dmMHd0MWJJRnY2ZzZ3TzNEX2puc253LTNEcGhLV3FBMmxYdHBjNVRNZG8tMEtnY181dU9YNGgwRUxKVUhZZFpqc01rMGVFSFk0YTlZ?oc=5" target="_blank">ChatGPT Health falla al detectar emergencias médicas</a>&nbsp;&nbsp;<font color="#6f6f6f">El Universal</font>

  • Anthropic demanda al Departamento de Defensa por ser marcada como “riesgo en la cadena de suministro” - WWWhat's newWWWhat's new

    <a href="https://news.google.com/rss/articles/CBMizwFBVV95cUxQZjNEQWgwbjU0a2xKQmtVQ2RhT3RuOHNqQ1dpT0JqSEZjb3pDZHBjcHRoSUZ5Ml9HMzBPb1ZOU3AtYWxUbVZuX05hOE1aYWQzZ1pxQVM2R2NyaV9aeDViLUF2eTVfQ0FuMUd5c09PdHRmQVE5aHZ5TWhZSjBDSkk4R0Fyd1A5Sk8tcUhJcmpMV2NFSFNWcnVncm5ZeTJkc1oyeGpKNWw5MGNLbWdkOXBpcWpESjd2Z3RUVFdQdXZmSHB1TVdtZGpvU0hON19rZ1U?oc=5" target="_blank">Anthropic demanda al Departamento de Defensa por ser marcada como “riesgo en la cadena de suministro”</a>&nbsp;&nbsp;<font color="#6f6f6f">WWWhat's new</font>

  • Alertan por alza de fallas en inteligencia artificial y riesgo para la ciberseguridad - Municipios PueblaMunicipios Puebla

    <a href="https://news.google.com/rss/articles/CBMiwwFBVV95cUxOdDZnNXZSRnd5OUxCbVVrTTBNeUpSMGV5UEJXamlzWHRrcElrem1xQ0dfX1ljcXBtQzFpRGVzdW41SDhGN3J2SkZYcFNEOC15YXJQcmd3UzQ2ZjdjRGY4Z1ZIX01hQTluRnFraXdfdVMwYjRzTEk3aUxiVUVMRDBNdkNqemFGMHVDbE5yUDVWTnRQb1RxNkF2aGRVY3MxVFF3NW0xSWtkT2FwWUU4SWJMOVZSeXRQdXBGdE9JQjdVcEpLWlk?oc=5" target="_blank">Alertan por alza de fallas en inteligencia artificial y riesgo para la ciberseguridad</a>&nbsp;&nbsp;<font color="#6f6f6f">Municipios Puebla</font>

  • Mayoría de votantes en EEUU teme más riesgos que beneficios de la IA - ANSA LatinaANSA Latina

    <a href="https://news.google.com/rss/articles/CBMikAJBVV95cUxNSnlsRmpvYnF2eXc5Qkd1RVRmc05JN0xFT3pBdGRIQUQzYkVON0p5eVpEN29Ec0ZUcWxpZzlnbDEwd0NFbFFjOXJ5TGhOdldyUHNRM0hTVlJ2V3BOMThhbmQ0a2IwWHFiTXhxMVB2RVFwYktERmgzc0RVb25IOUZpcFZyRHdmdVVaRzRIcVRkeWRfTnMzRURUcUF5dUhYdGozc0pQTFNBb3hrTkJzQ3loUnV3Tk0wd2lvcjFkQU1KME9SV0hNeU1XdFlOSDlmZ285OUpONDlsSTR6eDV1dVdHR2g5aG83Q1l0MWhjZDNYdWM0bENiQ0ljSlpCcFU3S1oySmk1X3FsZ2p3SWtLcDZTMtIBkAJBVV95cUxNSnlsRmpvYnF2eXc5Qkd1RVRmc05JN0xFT3pBdGRIQUQzYkVON0p5eVpEN29Ec0ZUcWxpZzlnbDEwd0NFbFFjOXJ5TGhOdldyUHNRM0hTVlJ2V3BOMThhbmQ0a2IwWHFiTXhxMVB2RVFwYktERmgzc0RVb25IOUZpcFZyRHdmdVVaRzRIcVRkeWRfTnMzRURUcUF5dUhYdGozc0pQTFNBb3hrTkJzQ3loUnV3Tk0wd2lvcjFkQU1KME9SV0hNeU1XdFlOSDlmZ285OUpONDlsSTR6eDV1dVdHR2g5aG83Q1l0MWhjZDNYdWM0bENiQ0ljSlpCcFU3S1oySmk1X3FsZ2p3SWtLcDZTMg?oc=5" target="_blank">Mayoría de votantes en EEUU teme más riesgos que beneficios de la IA</a>&nbsp;&nbsp;<font color="#6f6f6f">ANSA Latina</font>

  • Beneficios y riesgos del uso de la IA en niños: "Es una herramienta, no un compañero" - TelecincoTelecinco

    <a href="https://news.google.com/rss/articles/CBMi9wFBVV95cUxQQXhBQ1RCMmlQRDZDSE9Ud3RfX2o2UWxuQ0IwQVpSUWdTWGpmUFFudzVHQ21VTDFPWW14VHZEU2lfMWh3X2dLZXlRdWRrei1kY2c5SXRlRVVtV3Jkb1kyWUdsYkNYbXZ4bUQyY0gwc2NnR0dJRnBSMGNMdG9sbmdJT3I3b0lfN2d1QUY1bXRHYkxITUt1ZDRINWVtX0F6d0tLTzZBY0d4QVlqd3l5V2QzODh4WmpkMUljdWF3Sl83Q05Jb1hheEliQ0FFQWxYbWc3MXJNNmF5eVo4Mi1UajFlVDliZkROZDYtTVFLWkNIWk5wT3FmSG9z?oc=5" target="_blank">Beneficios y riesgos del uso de la IA en niños: "Es una herramienta, no un compañero"</a>&nbsp;&nbsp;<font color="#6f6f6f">Telecinco</font>

  • Investigadores de Málaga diseñan una herramienta de IA que predice riesgos hospitalarios de mayores - La Opinión de MálagaLa Opinión de Málaga

    <a href="https://news.google.com/rss/articles/CBMirwFBVV95cUxOTms1cmRoUlhoTGRPTFJpdW1TSHZIRjNyU2VobU1MNlBqOWVMT1g0cHl1elU0RHE3NHJmLWVZSHp6NmVCY3I4SGhna1BDanpiOEIyVnFnbkxvNk9EUFk0eGZ6WXpzUGRpUmVVMnV6NXRXVXg0emhEWi16czZ5YVFMZkxQY1RGLWpKR1RxN25SdHZPTEk2U19SZEt1SlRuQ05ja04xWHBQSnlmaWVRX3dB0gG0AUFVX3lxTFBLdmZuUFpiOFBZYzJ0SFBMNUxtUWpjWGlFWU9Eajl4ZlBxRC1jLVZqdy1iYWNGRTk5RWoyMWdyQzVIUkpHTUc3ZTEySTR5ZVhMMzZHNnlhZ2VPcGRkMFI2a1BkN29FSU11N0owbkhZYWp3SjlrRzhpb1FWaHhQU2lnaktQS3pta1ZBV0V3Z3BxRllUdFhZM1JXVWd3UGtNOEV0QXdVeW8ybXVYSzVzNUE3cGNSbQ?oc=5" target="_blank">Investigadores de Málaga diseñan una herramienta de IA que predice riesgos hospitalarios de mayores</a>&nbsp;&nbsp;<font color="#6f6f6f">La Opinión de Málaga</font>

  • La empresa de IA Anthropic demanda a la administración de Trump por la etiqueta "riesgo para la cadena de suministro" - TradingViewTradingView

    <a href="https://news.google.com/rss/articles/CBMib0FVX3lxTE5sU1ZoMWNUM3BCY1dCeFVLTk5xTUxXOFdUN21WbmRMRHZoa3JlV3gxRkQ5UklFTllEeEZ4T1E4d2ZMRUpTYkVLMm1CUTF5ak1WT2I3bE01SWhZNEZoSmZVbEd3Qy1zWFgzZlI3RDdaZw?oc=5" target="_blank">La empresa de IA Anthropic demanda a la administración de Trump por la etiqueta "riesgo para la cadena de suministro"</a>&nbsp;&nbsp;<font color="#6f6f6f">TradingView</font>

  • Alertan sobre riesgos de privacidad al usar chatbots de inteligencia artificial - Opinando San NicolásOpinando San Nicolás

    <a href="https://news.google.com/rss/articles/CBMivwFBVV95cUxOeTlkVXN1c2dzWlZhRUoxQVR0Q2J4cjA2UDBMVV9NWlNBQlZZYkkwLWJKWWk0ZloxSkJ2eml1eU1iZFZKX3k2Qi1OZjYtaVF0cHdiSk85MGdhRThfR2VGSElXMExDdi1hSzJ5R0dMemRfZ1FjTWx5eF9Wb3RiQ3gxQURJSGtOV2tmbm1jLUJPODhRaGFQZzVVc05TQlNXTWVyQmRqSlNha3d0Y0NUbmxYMmQ4TkU2V252MUFVRmdWcw?oc=5" target="_blank">Alertan sobre riesgos de privacidad al usar chatbots de inteligencia artificial</a>&nbsp;&nbsp;<font color="#6f6f6f">Opinando San Nicolás</font>

  • Riesgos de la IA Generativa y deepfakes: guía de seguridad - Diario OccidenteDiario Occidente

    <a href="https://news.google.com/rss/articles/CBMiiwFBVV95cUxQVWVvV1pNRVFpS3ZiRTd3dlpsSG00SXUwWXVMS1NXTmdUczBWdEJvSjhoVmJKTmtsVDNEYVJSNkZDMWdVa0pQcXhfbGxqRUpXUWxhWTE5cGtNMW5Ob1lCalVhRlpWUDJrMGwtSjM4MVU5TGp4d3B0Q1FpbTJSUl9uVllJRFlTRUlYbW9R0gGWAUFVX3lxTE1TaGQ0NWtrUEVjdk01bWRRUVZFZ2dBaDdFOWRfOW9aZEdZU2hieWdOOWt4dTEwQ2dBYzdkS3NXd01fb3JSbzFpYmdsV3dYdGQ0YmtTZW1feXA4bTZiQ242UXJZRkJOYlhKYVNZZWFfbEx5U09aNThXWjBKa1VkdWpGUFhYZ1BtdzVIVUQwcTBUWmhHaXgwdw?oc=5" target="_blank">Riesgos de la IA Generativa y deepfakes: guía de seguridad</a>&nbsp;&nbsp;<font color="#6f6f6f">Diario Occidente</font>

  • Los servicios antropomórficos y los nuevos riesgos éticos de la IA - democrata.esdemocrata.es

    <a href="https://news.google.com/rss/articles/CBMitwFBVV95cUxNdTY1LXhHc1lneHF3WEJhY1N5bWR2dzdnTXhPeFNmMjZnVzBhbHNSVlFlclV2RThuWEZ0SWtqX25HRjNiQnl6X2lvRGV4RWVBcXRacXlybDZBSGxNbjJra0VKU3VZdUhkeGY1aTNKRGZLVXVzOUM2cXh5ajBGN2xXaUFnR3htZThSWWpJX2c1Q0FaOVl4WFQ3ZkJVNl9NRnFyb3QydVZya3R0dDNuejhGU1ctd2FnSmfSAbwBQVVfeXFMUFVYajU4N1dMS3ZCYUIzSVZuR1o0MTBGTkM3cWdKR0xTdU1vSG4zTGNkc1RMdS1tbnB5eVhtZ1BvT056Z3d4Qi01Skg1d0diYmZUZDZQd2I4UUg2V1dFS1hlNkZNS2F1UXhmdTY1X09PbmFiRlhrNjNOQUtfRmxUMm14Vlk5SVVBRTI1OGF4UTNqWC1DVzNraVE1YTBsQVhXTm9lTVBxRlpwUlhrUTN2WlIxT0VOS2xCQjFjZ1Y?oc=5" target="_blank">Los servicios antropomórficos y los nuevos riesgos éticos de la IA</a>&nbsp;&nbsp;<font color="#6f6f6f">democrata.es</font>

  • Cuando la IA empieza a pensar por nosotros: el riesgo de rendición cognitiva en la abogacía - Abogados.com.arAbogados.com.ar

    <a href="https://news.google.com/rss/articles/CBMivAFBVV95cUxNUGQyclRFVWZVeDdoTTdQQ3p4OWwtRjI2eWxmLVlRSTkyMHlGdXVKSkdJUUdyY25mNU9vVG5GM19CczRSMmRqaThHaXRHaS1KdlNERHVTWXlzbUxaS2llb0dTOEhTRjBSVlQ2YmZxcFM1Tm1OM0x6NlRoT2RVVnN6bno4ZnFiRUdTZXBocktYWnFOYzZOTHdMUEhQWXRhcVVzNGVtejdVSjBocW1jX0lqMkd0U2xUOFUwY00yeA?oc=5" target="_blank">Cuando la IA empieza a pensar por nosotros: el riesgo de rendición cognitiva en la abogacía</a>&nbsp;&nbsp;<font color="#6f6f6f">Abogados.com.ar</font>

  • Workiva Inc. presenta una plataforma impulsada por IA para auditoría, riesgo y controles - MarketScreener EspañaMarketScreener España

    <a href="https://news.google.com/rss/articles/CBMi2gFBVV95cUxOVkNDWkdDM09SMi1JS3JZa29Ldmh1aTl4Ym53UUtsTFVWaHBOblhmekd6aGpxSEwxQnVybUlEdGNldXU4QkQzTEk0c1B3eFBSTU1CaVppWlgtU0hHNnhZMkxhaU1WdXBBcnFtMDZIbUJwOXJVLVF6TEZmWDR5YVhOaTc4MER2ZWJUSUg0a1Y2SVFyQVhZM3IyUmJDWXpOQ3RqTm9Pd3pZNloyVkx2YVBCbnNfeXMxT3BhYzQ4LTZLUlZXLWxnc05vNkNaLVpkd1VRYUlHYTM4ZmVsZw?oc=5" target="_blank">Workiva Inc. presenta una plataforma impulsada por IA para auditoría, riesgo y controles</a>&nbsp;&nbsp;<font color="#6f6f6f">MarketScreener España</font>

  • Nuevo sistema de IA identifica riesgos de cáncer de mama tras mamografías sin anomalías: ¿cómo funciona? - La PatriaLa Patria

    <a href="https://news.google.com/rss/articles/CBMiwAFBVV95cUxQaFpjcVdJcU9heUQ1cFhCcGE1V3diNGJpeFlmcjRVSF9HNVdZaXFhT1djS0VTaWlINE1QeG81M2djRmZWQUNVUExBY0EySHJuMGdHdVFvcFZ4MXc4T1pSV2F6TEItR2d0UDNFMGRfX2VhQVNZYTdKVEF3by1UUjJieC1LQ0xfWm0xakMxeE9Yc2ZfRnI5cG9WNkpaZll1NWlTTUJabjkzTmpOLU1DNjB5V2tFVUx2dnhYU3VKdHZRMDQ?oc=5" target="_blank">Nuevo sistema de IA identifica riesgos de cáncer de mama tras mamografías sin anomalías: ¿cómo funciona?</a>&nbsp;&nbsp;<font color="#6f6f6f">La Patria</font>

  • Los peligros de confiar tu salud a la Inteligencia Artificial - Radio Popular de BilbaoRadio Popular de Bilbao

    <a href="https://news.google.com/rss/articles/CBMimgFBVV95cUxQQjN4eVlBUjY1OHI4d3FpR0dZZWhpSGJ6MG9LNk5TMVBwa0QtcThhU2oxdUtyN3NNbERBUTJsVVBiRVQ4NXc4VWFLQVROaVc1R1hpcmZTNklpZ2pXTmxPSVAxeEhDZV80M21Yb3pZZ2FZR1NRZkg1NVh6UWRLazdpdDhBV3lJdmRRU1lKZEt2eUxYNmVidkxKd0dB?oc=5" target="_blank">Los peligros de confiar tu salud a la Inteligencia Artificial</a>&nbsp;&nbsp;<font color="#6f6f6f">Radio Popular de Bilbao</font>

  • La inteligencia artificial como riesgo operativo - La NaciónLa Nación

    <a href="https://news.google.com/rss/articles/CBMiogFBVV95cUxQN2dBOHIzTFQ3ZVJJNTZxd09HT2c3S2hKd2hselBoWWRmYlQwanZLQWJwQlJZOXFLWU5FMDU5bmczS0w5T1RZOFZmLTBJWmVmcWJWVXRROTVRRkFUS1hCU2x3b0dWVlR6aUozR1JUUENWa0xzNEFUOEgxYjdJQlFwSjVIeV9TSmxvZVFVWUtPTXlIY3pPN2dMVjRxRkVPS1JjQWc?oc=5" target="_blank">La inteligencia artificial como riesgo operativo</a>&nbsp;&nbsp;<font color="#6f6f6f">La Nación</font>

  • Las IA autónomas podrían amplificar riesgos sociales y políticos revela estudio - NotiPressNotiPress

    <a href="https://news.google.com/rss/articles/CBMirAFBVV95cUxONUFjeThMZkVOMWVaQ1lva25xazdoSE45OExtSVR3ZWlEQklKcHFLRXFQUDh2dHVQenN5S0F3bnlFYzdER0RTbVdmTGhEdjBCNUxCd2dkQWc2RVdyUVR0X3dhcG4wQ0pPZTJxRDBHdG44eGdjT2ZzRm1JNXg0eTBKVGQwZEVLVUY0REl0bE9FMFpHdGVhODlLVnFHQmdXWVVkU1BjZUR2dUIzaFFq0gGyAUFVX3lxTE1VNDR1NHlZS0t0V3JSRVg1eXhNOHNwQmxLeElxQVpYdEtFeXFqX2hRN2JSWDNrN2RVc3NDRVNuRGNDSTUzbjVVNFNpNHl3WEJ1aURDbFVEckdHMXNUSHV5SDVENkloUGpScjZWRXVac201ZU51MUJKbzNYNXV6REEyVUs5N3Q0Nmd4WEl0cFBaWVVoU2ZCQlE1Z1FVVVNsRU1fZXh0eFRmMkx3RjBtN1BQc2c?oc=5" target="_blank">Las IA autónomas podrían amplificar riesgos sociales y políticos revela estudio</a>&nbsp;&nbsp;<font color="#6f6f6f">NotiPress</font>

  • Mi amigo, el chatbot: el engranaje y los riesgos detrás de que los chicos usen la inteligencia artificial como confidente - La NaciónLa Nación

    <a href="https://news.google.com/rss/articles/CBMi5AFBVV95cUxORDdfcElaZFNINndISTZjb0xfMkVHUFJlYnRkV1lZMDJuLUQ1aU5nSUVIaEtxVEZveHdlVTkyeHB1eGptS0ZfTV82X2pQa3F1Z0VNMzdDWGpVWEhWZlJSbmhWZWttdGx2Y0V4c2lEZTVJZmM3SDFNZEJsTms5Y1JXSndaR1lqS2M0ZmxRQ2NoNkpzQUdpWDhGbUIwa2FpQ3NZRlBMTlRXSkJRY1RETG1kNDhLMi1wYVVZdjFuMXVweEo5anlGX0MzTldjRXhPRERRai0zMmw1U1p3RFpEN2dWOC0xNUY?oc=5" target="_blank">Mi amigo, el chatbot: el engranaje y los riesgos detrás de que los chicos usen la inteligencia artificial como confidente</a>&nbsp;&nbsp;<font color="#6f6f6f">La Nación</font>

  • Inteligencia artificial, asesoramiento legal automatizado y crisis reputacional: un nuevo frente de riesgo para empresas y profesionales - AmbitoAmbito

    <a href="https://news.google.com/rss/articles/CBMi_AFBVV95cUxPX3Q1eGg4SVpaTjhTNEU5Um9JYVlHWUx5TUhKZWdldGwtMWkzZWl3ZXBPdllHNVpTcGVidHMxZWhXdkNNbnRuandhRDl3S1Rua3d2SVh6aDd4cFBHS3BmRzIxQUsyRTlBcU5XUWljc1ZydlVYdlBFdGt5eGNLenRJT1VWWUdUaE1aYXFlVEtyLVlGQWFiSUtUNUdJN2o5Ykk2a18xZ2xKdUZva1lWUXpTMU5FRU55VU42UWJVQTR5OHV6OWJBWExyREFveVBBRGdUVE5maE9WVUE5R05HV24yREIyZW5CTGNVUWpqU3lwR2dvSzNPR04td2FFTzHSAYICQVVfeXFMUGVGUDY3RUdmZXBOaktaeW1lNWhQNVBXMFVqeWNzbFRfRUVTMU9NVWhyZFpIOWxfRm1STFBLYXRIdlpSM1VuMF93bTRtUUZOU3gyLU9uaXBlNDJCX3pIYjFhWEtwT2lYeENrb2QzcENuZ0VaOExqUVhvcU9YT0JnVVlEU1p1QmNQTGNCWGxtZTdhR29xdTFYQzdLTUlDbm50dmZTQTgxVWRwZ1VWUEFpa1JVMmtEWmhuUTVYRUFScUlmSHlKNFZ4QlhNbDdiRHh3NUFyZzRQTUFqUHZUaXVfQl9IQ3pjSFg3YmpXTjNMQkRKV1Y1b2pHWDdTSGF4UzFvcVN3?oc=5" target="_blank">Inteligencia artificial, asesoramiento legal automatizado y crisis reputacional: un nuevo frente de riesgo para empresas y profesionales</a>&nbsp;&nbsp;<font color="#6f6f6f">Ambito</font>

  • IA generativa: Mayores riesgos laborales para las mujeres - RTS MediosRTS Medios

    <a href="https://news.google.com/rss/articles/CBMiigFBVV95cUxNdlNkeUJfN0Izajk3MmN3QTBrYUZLM0MwR19NMTBTR3RWMURmVVlnTnVDRDh1b1RaY2RLRjRfQkVGZHJvb0FvZzhxc1NURGpERHJBUzA0eXFmUkk2d2dnR2poN0tjS3JORkVUZ2F1b0pLVVhEOWpkWnJzTGVQYXgxaExDcTNXclhXSXc?oc=5" target="_blank">IA generativa: Mayores riesgos laborales para las mujeres</a>&nbsp;&nbsp;<font color="#6f6f6f">RTS Medios</font>

  • Los riesgos de una IA machista - La RiojaLa Rioja

    <a href="https://news.google.com/rss/articles/CBMigAFBVV95cUxQaGtqQlZnLTVncjVtdUhTNGFiSk9JbzZ1ZTZwanZYbWJ2S3hhQUdfc3BoN1JtUmhwSkRYWUdha0VMUWhmbjE2NVA5M2NTVGtuanBRQWRTYWFLSnVRV2dSMld3TnhnVGJkaGZ2dHJYVzdtR1lXQzFUTWV4eGpKZGtINdIBhgFBVV95cUxNR1g5X3ptRXROcTljMW5nOGxXdkdpMF94bU1KbzYyZnlvSFA0N1RLWFNpb0NOTGNXVVRNTjRvVjdSX3kycWRFSnJxLTE5ckNwNDc1bW1WZURpeXlUaWFWcWJwQ1VZdmF4WlA0RXdzYkRaV2FHWVlHMFNCanl0cG9pMjN2MnhoQQ?oc=5" target="_blank">Los riesgos de una IA machista</a>&nbsp;&nbsp;<font color="#6f6f6f">La Rioja</font>

  • Anthropic revela qué trabajos corren riesgo de desaparecer por la IA - ADSLZoneADSLZone

    <a href="https://news.google.com/rss/articles/CBMihAFBVV95cUxQRXgxT0dYMkRjNXZ3d3lFSzRaUzQxR2R6ZG9WN1JVa1VhbDFwSU9GUmVjY2NNNUZ4VmNXai1KeFpSd0JocWxJY29XaVZpRmlFNWdzcXQ1eVFoLXNocmVSZFppWnZZWGRHeGw2M19LaG5KUVZ3RjN3WDBGaEQ3UjBNNHpsckI?oc=5" target="_blank">Anthropic revela qué trabajos corren riesgo de desaparecer por la IA</a>&nbsp;&nbsp;<font color="#6f6f6f">ADSLZone</font>

  • Norton advierte sobre los riesgos del uso indebido de la IA para manipular imágenes en línea - Mundo en LíneaMundo en Línea

    <a href="https://news.google.com/rss/articles/CBMixwFBVV95cUxPTHgwTmxuSjJxQk9QX2VDNXFYbno4MGY5eURNMENRV0lsX24ta2hhaFM5XzRXQVhZN2RQM2NzUzdneGJJNy1kZDM5cGZYdUZaXzVoT2xFYjVlY2VIU0k3TDZHR3FyT09IZmJtU25nY3RRMi1VaFdXT1hndHprNi0welpYb1VMQnVCTkJfMFZxWk5ZODI3MW1BWDRGTXkwWkVQWDRrQXI2RVdoMjZkclptd1k4UzBUanh2bEw2TmdUU08zdTdGN01r?oc=5" target="_blank">Norton advierte sobre los riesgos del uso indebido de la IA para manipular imágenes en línea</a>&nbsp;&nbsp;<font color="#6f6f6f">Mundo en Línea</font>

  • Centros de datos, Inteligencia Artificial y conflicto social: ¿Estamos externalizando los riesgos de la revolución digital? - Prevención Integral & ORP Conference |Prevención Integral & ORP Conference |

    <a href="https://news.google.com/rss/articles/CBMi9AFBVV95cUxOWUxrbmNLTU5hcFdWZ3J4dW84ZmJCZFczd1BGZG5fYm8zcDlZR21zVWRKVm1DTHhfYTNLeHpjMGx2cTdhTTZwQlo0LUVSTm1KNDdyd1BUZHVTVE4zbGpXckZ1Y05uZjlVM3pNZzlEYjh4N1ktNWs2cF9pakZqTEpDWFIwZXlMOEl3YXNhN1pqR2ZNeUdpMUJGcGZOV2l6ajFkbTIwZzZNVjRrTG5EQmtXdndlMEs3NE9pMk4xSmhJY2hwaVk2bjdYOVg0bGpCYURWM3h5dDlONGlta2tOS1NteVRiMEhxYlNONVBnQlEwUDg1SDhC?oc=5" target="_blank">Centros de datos, Inteligencia Artificial y conflicto social: ¿Estamos externalizando los riesgos de la revolución digital?</a>&nbsp;&nbsp;<font color="#6f6f6f">Prevención Integral & ORP Conference |</font>

  • IA y datos: riesgos corporativos, impactos legales y gobernanza eficaz - Cinco DíasCinco Días

    <a href="https://news.google.com/rss/articles/CBMiuwFBVV95cUxPbk54NWstaHNIbEtjUWkteFJoZ2k2VU9DV3czRjZGNDBUUE9wOWpPRFRaaWtub1M0a2M0UERxVW5WQ0Q1X2JrWVpDYkE5TXRsOFJvcXZqaGl3Q0JlM1NzbmczNVZXd0I2bm1qcFNUYnZtSWtPbWtCME5IVno0Z05fZk5Qcm5jRGtKaDRUbVp0UjhkQmJLM0JueDE0MGUwbllaOExVN1BjQi1QUDJyYk14TXdBUGFBMTZNUXlB0gHPAUFVX3lxTFBKb0VOVVRpOGxjLVgwaUVzcG5tVEE3eTllR2t1QnJ1YUFVUHBvMHd0bDhqeHVzMDRQRzBudzFxeWZoSEphaGV5Z2FDMnBmZ0Y2WlJQZW4yS0FncmNSci1xaWpkb0FnQWR3dnVMelZMd0tjcU9DSFNSNXhHTVFYMWFVYWNEaWRkemYxZENta0FrdWhZRGZ1Nm9BeENCN3pHYlZrUFgzRXlLY3Q4eEtCZ0h3WDZNdmJfb0gya2w1b2ppUG9TVU5ranBBaGV3TWRrdw?oc=5" target="_blank">IA y datos: riesgos corporativos, impactos legales y gobernanza eficaz</a>&nbsp;&nbsp;<font color="#6f6f6f">Cinco Días</font>

  • Electrónica de la IA: de los riesgos y desafíos - AcentoAcento

    <a href="https://news.google.com/rss/articles/CBMikwFBVV95cUxOWDRXMVhQY1BWNVVDTVh0Z3NEMWh5aTVUZDAwcWtnZ2FpV3dpZDhneHRvT2NHaWM2N1I1RWNVQl9vZDhDbWkydzRzd0FiQS1fOE5RUVh6NjVTWEJkVUhELUR5VmNKSHdrMXh2cTRuRFJrMlBVbjVyOHR0YnplcHFoTjZQR21JNUVxVVJWSUh6bmE3cGfSAZMBQVVfeXFMTlg0VzFYUGNQVjVVQ01YdGdzRDFoeWk1VGQwMHFrZ2dhaVd3aWQ4Z3h0b09jR2ljNjdSNUVjVUJfb2Q4Q21pMnc0c3dBYkEtXzhOUVFYejY1U1hCZFVIRC1EeVZjSkh3azF4dnE0bkRSazJQVW41cjh0dGJ6ZXBxaE42UEdtSTVFcVVSVklIem5hN3Bn?oc=5" target="_blank">Electrónica de la IA: de los riesgos y desafíos</a>&nbsp;&nbsp;<font color="#6f6f6f">Acento</font>

  • Cómo las interacciones prolongadas con chatbots pueden afectar tu salud mental. - Psychology TodayPsychology Today

    <a href="https://news.google.com/rss/articles/CBMinAFBVV95cUxOYlh5WVotM3JCMUJ4Y2VYRk1JeE90cHdYUG5uMXBnNUpZakRnZGhLRDNpbjRXaE0yWFdXaGg1SlNmNEZGdDJ2eF81WWpTZHN4VTZTNktHSVEtUUVBNXRqOUhHYjlfMWxILWNoU2VwYXhxMDQtQmQyMGtLNHU5N0dVOVNHWmNYWENKN1QtQ01UOGtrSjV0UlVMVFd3X3XSAaIBQVVfeXFMTlBnOHlQNmhRcmxXMlJ5M1Qzckt3aHFRYlJ0UHFoR3dRYzNFSW9KNC1iakQwTlFsSkVabFRzdTZuMjN5WGJROTBHa1NQbmtxNmM5QTdpUmFiZEJkODFTVEdIUndpTXd4RmJVMlhHRExzNDktQ3NwOF9CdnNxbkFHSTd5RVRMeDVVTjZxcUMwRG9BT0JIa1RTOTJYUlJFWjhVWlRR?oc=5" target="_blank">Cómo las interacciones prolongadas con chatbots pueden afectar tu salud mental.</a>&nbsp;&nbsp;<font color="#6f6f6f">Psychology Today</font>

  • Riesgos De Privacidad Al Generar Videos Con IA Usando Imágenes - Control PublicidadControl Publicidad

    <a href="https://news.google.com/rss/articles/CBMiwgFBVV95cUxPaVpnenJoQlo3MTdXUVdYMUM3bVV4N2hyMEd6aEhNZXN0WUd4SzF3aHY4OEZMclh5WDVwMHlyMTJBeDdjd1ZVRl80dTVwN1ZKWDVtWVd6RW1ud3lKRzJkcFhQdmpYTjN0dktnNnI0MTRoaWo0YkdQVVhlbXJsekVuaXpiYzlldzdnekpkUmwtNFA5MDJLbmk1bmI5ZWt2ajRDU1hBRGlHc1RWakUzazhlS2ttek4zU1BRTEFBUU44ckhwdw?oc=5" target="_blank">Riesgos De Privacidad Al Generar Videos Con IA Usando Imágenes</a>&nbsp;&nbsp;<font color="#6f6f6f">Control Publicidad</font>

  • Las caricaturas con IA se vuelven virales, pero los riesgos para la privacidad de los datos no deben ignorarse - BitdefenderBitdefender

    <a href="https://news.google.com/rss/articles/CBMiiAFBVV95cUxNY1BQVDEzckhEODVKNmJEMnhtYnIyTDV2X056OEJabDIxcm84UWp4ek5jZ2htRDM1alE0WHE0dDFXZ1NXZnZEMTk0NkpfU19WcHFRX0thc1piX3lONU1uM0dNZ2EzUFAtZUdhM0NKdkNhaEluMFNFdWxIOGtjQWMydmZ6aFpwY1hO?oc=5" target="_blank">Las caricaturas con IA se vuelven virales, pero los riesgos para la privacidad de los datos no deben ignorarse</a>&nbsp;&nbsp;<font color="#6f6f6f">Bitdefender</font>

  • IA y deepfakes: nuevos riesgos de violencia sexual contra la niñez - UnicefUnicef

    <a href="https://news.google.com/rss/articles/CBMirwFBVV95cUxQdERtWl90QnRXbW9HcnJ3b2pvNkxQWWlISlRsUGZtQUFzZk9JdlZLSmJMbFZHUWtMWk51NEpSVkN0MWl3RkdvVC1sellTbTJEU3hfbTNKRVBKSnlmZUs2S1NHWGVZbVA2OUNVWUlyZmhOVUNaSGw0Vk9GbGlqNWRhVzlYQXhOcXcwZVpLQV9WRnQzOFh2bS1kbjBvQVZoamN5RmRJZHc2dm9GYzJrVU9n?oc=5" target="_blank">IA y deepfakes: nuevos riesgos de violencia sexual contra la niñez</a>&nbsp;&nbsp;<font color="#6f6f6f">Unicef</font>

  • De riesgos sistémicos a ciberataques más peligrosos: la preocupación por el avance de la IA repunta - El EspañolEl Español

    <a href="https://news.google.com/rss/articles/CBMi-wFBVV95cUxOY1FvcTVya28tMXNzUzFfUmItRnp1S1Fvd2htZVp4MDdtTU5iNExZSFEzNk02dXpDYjdhWlBLV05Dc1dBYUlFRHhQVUtySUpLNmVlQkhmYlp2a3FWbU1IVmZlSmh6QXlwM0VlVTZHeGE0V3V2RF9mZVRLaDlmUHZwaDNvSGZJZ0RzTTdvMlh6bVc3elVrV2pXa0t1X3VKWUh6b29Gcnd6Yk5ZRW1VWHd3SC1UdS16OXJCTzlneUt3dDVUZFlTdlZFOGpQdkhzVmJneHRPVFcyWW5oYTFqX0JIMERqOUtXdnhqX1FSQU1uZUgwRlhTTkhMdjFEUdIBgAJBVV95cUxNVktfakRVaGdyZ0FMcUFhS2V4aEh1TW9TQVJNZU01Yzg2V0p3TGpxbkNrRFlYbHBVTURpc3J3bDRwR21WcE4tTWxtQS1YSDBxdDhMTjlaRVBLZFp6Z1RrVWk2OXZSTXZ4TFhJWFZIbTNnbVFSamxSMVk3ckVwQlJha2p6NkY4SF8yOXZIUVJNU1M2eU1MbTMyZ0FLQnplbEE5T3pQQ0V0VEs2cC1tcjcxdk4wbUhEVVJrT2l6R3poTk1kRi1feWpHNkJDM21jbDBudU5EeUYyaEJ4Z2xYejB1Yi1nVjJwVW1EZXlnSF92d0VELXZybjl6ZkNLM1FlRTRS?oc=5" target="_blank">De riesgos sistémicos a ciberataques más peligrosos: la preocupación por el avance de la IA repunta</a>&nbsp;&nbsp;<font color="#6f6f6f">El Español</font>

  • Un estudio advierte sobre los riesgos de usar chatbots de inteligencia artificial para buscar consejos médicos - El PeriódicoEl Periódico

    <a href="https://news.google.com/rss/articles/CBMizgFBVV95cUxQcDB1Q0NPNHpWYkRaWjhILTNKTVN0XzRzZDI5aHBaSWh1bjNsMzhlNHFyeFg4M201SDJZTVlMX251dkNjYUVBVWFOM1VQTF8xQW1VOURJOFFTdWFPR28ta2N2OGJqZVVQLTVxZ2p2OFp1NlMzMngtZHFqaWJVTjc3SmFOVUNxSTNIQnlzX3NDRlFLTGZwRFRTV09JT1RaMXB4SVNMWVJCVDhoR0xIbWItUmN3RlNpQmtaYWN0aFJyVXBFbXlGYU9vQ3pPVWRFQdIBzgFBVV95cUxOX3ZFQUItbWQ1aENkVjVpTjhEQTBFVUZiNThsWjN1QW5tbDNiWHZfbU1fUUJxVFpNUDVkOV9hZE8wSVFOdUlJci00VVQyVjhFWlkzQkRyZmJkSS13T09kbjJkYlJsOTVkUVZybzVJaEh1Qm9IRUtVQ19mRGdZQUlVSGZVbDJ5MlY2aHpjbVNkU3RuRFVqMGl6U2NvdmU0c1FGbzRDeFZyZTh3RXRkSWxMT3RLZno1TmtDOXB5U0s4MHRpYUJLdW8xemNwc3p3UQ?oc=5" target="_blank">Un estudio advierte sobre los riesgos de usar chatbots de inteligencia artificial para buscar consejos médicos</a>&nbsp;&nbsp;<font color="#6f6f6f">El Periódico</font>

  • La alfabetización digital, clave frente a los riesgos de Internet y la IA - Onda Regional de Murcia | ORMOnda Regional de Murcia | ORM

    <a href="https://news.google.com/rss/articles/CBMiqAFBVV95cUxPb1RVM1dWTVFLcS1BVzdzMjlpMWIyQktmTVhBSWZUaE0ta3pPNUJRbW9nUkhUd1RnM0lwTVFwZnVWa3E0N0VXSFhNSW5WN2pUb09ia1d4M0hZOENkNXRMRF9iMlJUVnRfc3ZsUEV3UUVpTDdObWRkYWkxNjhDODRwYjkxVkJ6aldYTFZ1bG5fYlJEYnZxbU5FRnRTdVpJUENleW1sQzUzSFc?oc=5" target="_blank">La alfabetización digital, clave frente a los riesgos de Internet y la IA</a>&nbsp;&nbsp;<font color="#6f6f6f">Onda Regional de Murcia | ORM</font>

  • Check Point alerta sobre los riesgos de OpenClaw, la primera red social diseñada solo para agentes de IA - SiliconSilicon

    <a href="https://news.google.com/rss/articles/CBMizwFBVV95cUxPTEFvVTU3WW4zTlRZNXB1WmZkbFh3RmYtV0RlTFc4VWFYdEsxMFdpQm0zeWxXalZQYnUzOC1XcGVfOTdrOGdVNlVwTkNVU091YnpGTm8xR25PWlVpSk5ubEJ2NFBUbWZJRFd1UnRORDZZektBaWtMSDZWZEE5aDNGSGhIZFlRR1VvM0MwUHFuaU50Q2g0MTFCY0tvRm9vcGtObmFrQ1owQms2eFhlV2trZlJsNTUxSWpxSnFaOVBmQ0xYWU1STy1CV0tneDZpdUXSAdQBQVVfeXFMT0tOZU0xUjlfUlpXY1FjazF6NmlLazFqQXMwRWN5TktaRjhSTVU5NzJGdkxMUDM1bGZBZnBIMmZ3NkhTUUlhMHJyM09vS2hCSFlKVkJSbGQ3RDdscnR0aVRKMHBYV0tESXJXWFhSUXB1MVlwVERGM3Nld1ZwdTRDQ0JZWFZHMHI5MU1oeUxwWm9STS1xQ1BrNGtHS2FjbUVSQ2NORk9pSTl4YWd2QnV5aFh0bkJQQ2N6Z0R5YmE1dW11RW1ndUw0X01ybW1XU2pkQ1MyR1o?oc=5" target="_blank">Check Point alerta sobre los riesgos de OpenClaw, la primera red social diseñada solo para agentes de IA</a>&nbsp;&nbsp;<font color="#6f6f6f">Silicon</font>

  • Moltbook, la red social solo para IA que despierta recelos por sus riesgos de seguridad - EFE - Agencia de noticiasEFE - Agencia de noticias

    <a href="https://news.google.com/rss/articles/CBMiugFBVV95cUxOSHNtRjdHUmpCWjNkV0FibG1BMEVOTmhEM2t6andxV1N6Z1E0Y1FzYWN4NGJISUNwMUExMUFrN05UQ0UydFFvZV9wNkNoaUdwQnFrWTFTUlQ1TC0yRGFydTR4WnAtd2FJcU9vMDJVU3RfRGw5WUJpTHlXeGduTV8xZi1jSGtQNmx2V01zU19fcXVVbVFCRHY0UlpJbEdMUnRIVEI4OUsyV0NXWnVvUTFqRVFhQzZKdS0zVlE?oc=5" target="_blank">Moltbook, la red social solo para IA que despierta recelos por sus riesgos de seguridad</a>&nbsp;&nbsp;<font color="#6f6f6f">EFE - Agencia de noticias</font>

  • La AEPD advierte a autónomos y pymes sobre los riesgos de usar IA sin proteger datos - Diario AyEDiario AyE

    <a href="https://news.google.com/rss/articles/CBMi-gFBVV95cUxPb0NoM0t6S2luLTRlYXVfYnlvQzdZTnlJbHJ3eGEwbmhyTU5UTXhzUW9QemNUUE5wQ1BscXRFMTZjc1lmcW9wWF9jOEJWVUJXSkxlTEhYMW9fdU1qVmxab3N0cU9BVks3cXVHOFItcDZkMi1vT0lzSlRlaXl3cE1zbXVjd0tjSWtHcVkxRUhvWC1uWExOc0QzT3B0Mi1qUGRHVTlCZnZlOUd1RFl1R1dVOTR2cWNRX1hDLS15QnNpWlR5NlFRMWpjcnR1Y1cwVURXNFNjekprMDU0NllGYWxhbGozeUpLRm5Za2d2UDdCMF9zT2tlZDNDd09B0gH_AUFVX3lxTE5mYnRfakhvdW9tSFdFVk9BV2c4ZEc3MjdqaW1aWHNOZTZvMGg5WVlrSmlnbmpaN0V3dU5Qb0hMTWhLUmc0NGRFeVh0TkFfa0JRQTgwNXYxMHBvTDhVRmtMMU5oU3VXQmpHREhBbG1OUS1YcmszRVBhZi1pZ1l5WEFrakZra0Jld005UEpUaVVNX1ZXeHdHRVZvLVNIbG5EZG50bWk3dlg0YzBkOU1neXU0eDA3R054SHNNX21KcS01QXlxMjlrTXlSSTFDNUhmd0cxcnZTOERUdG5kMVY2R2JDNHlwUlRUN21tLVdiY0NkdzcxeENSLXh4aVNrQlgydw?oc=5" target="_blank">La AEPD advierte a autónomos y pymes sobre los riesgos de usar IA sin proteger datos</a>&nbsp;&nbsp;<font color="#6f6f6f">Diario AyE</font>

  • Niños, niñas y chatbots: riesgos principales a los que prestar atención - WeLiveSecurityWeLiveSecurity

    <a href="https://news.google.com/rss/articles/CBMipAFBVV95cUxQWW5GUzd1bGo3R3JFVjA4Y1Z6MFhhcnhqcWRDSXVfWVR6ZDF1ZFdraW15bHRHZjRiTzhpRmFPWHRubFJISjNFclR1TkF2MEJDZUlORFpqTU9OU1liaWJ1dFdWOVNjbkV4dHRnNTNYN1FvYkZRMFFwZTdDenFTcG12MFpWS1BUS2xsb0xwUkJ2ZEl2dUhObUpQWGh4dGFSSnExOFd1cg?oc=5" target="_blank">Niños, niñas y chatbots: riesgos principales a los que prestar atención</a>&nbsp;&nbsp;<font color="#6f6f6f">WeLiveSecurity</font>

  • Las dos caras de Moltbook, la red social exclusiva para agentes de IA: entretenimiento y riesgos - Marketing4eCommerceMarketing4eCommerce

    <a href="https://news.google.com/rss/articles/CBMicEFVX3lxTE5tRTBIN0taaHU4ZjJHZXdSdnlWZXdlaTFtamhIbVdjbEhuREVxazlCcGhWcVdyZGhPZ3Q0LS1uUU9QTEZsOGlJM1Yxa25TemNFSklzb2o0ZTVnTy1CTk93NU1hZVVKSTNRYWRpRVFRUm4?oc=5" target="_blank">Las dos caras de Moltbook, la red social exclusiva para agentes de IA: entretenimiento y riesgos</a>&nbsp;&nbsp;<font color="#6f6f6f">Marketing4eCommerce</font>

  • La IA presenta un riesgo existencial: la advertencia de Dario Amodei (texto completo comentado) - Le Grand ContinentLe Grand Continent

    <a href="https://news.google.com/rss/articles/CBMi0wFBVV95cUxOalFrTHJZeVRZOFotRU5YdWVzSjBkVmpKZDN3SFh0cElGS1B2RHFPNXBoS18tejd0U0g1T1FPY3RrVjQzNWtiRWpvNE83THBHcXFkNGtQX2JHd09GczBaYkFWNkRTZVFfd2YtUFgzX0JkbS00UlZJWjlDMHllUk5NRUxROURnZ3lGTnlMUWFVNmYxYzRaNnZQYjRORmlHeldlRzFBMnVscm0xcU5vWWRGTV9NbWxMZDFPUWM0VUQ1ZnNjMXYtRHRZSkNvWWdKUExBUUlR?oc=5" target="_blank">La IA presenta un riesgo existencial: la advertencia de Dario Amodei (texto completo comentado)</a>&nbsp;&nbsp;<font color="#6f6f6f">Le Grand Continent</font>

  • Hinton, Nobel y creador de la IA moderna, teme un futuro sin control - Cambio16Cambio16

    <a href="https://news.google.com/rss/articles/CBMikwFBVV95cUxPNDZSOGZZRHJjU2FMb25pVGRZM3YtcmFJZHpHNmxFYlk4cEt1Rmo5cVE5TVpEcllEaHZ6SlZDUDZwMGZud29md3JpWmZSRlB6dHB6dGFDbVBQOHFvcExFQWxTc1BYNGlZZ3J4aGgwZ3dteW5XQVd2TmlXekJRLUlYTVNJN3V2Vko0Sy1TY1EzRFRiWjg?oc=5" target="_blank">Hinton, Nobel y creador de la IA moderna, teme un futuro sin control</a>&nbsp;&nbsp;<font color="#6f6f6f">Cambio16</font>

  • “No hay garantías de que la IA no vaya a destruir la sociedad”: Dario Amodei, CEO de Anthropic, avisa de los riesgos de la inteligencia artificial sin control - La VanguardiaLa Vanguardia

    <a href="https://news.google.com/rss/articles/CBMi2wFBVV95cUxNYjB4bHdkYWlMQnNPcnFyRnQ3ZG41TzJmaklYY2l2MDd5TVE2VnRueTZfb0V4dnQtMmZDTjNISHdVaFNsUmhhTmtIMnJ6SUJUc1dnTjF1VmY0LWh5bDh4UGtuNGg3X09uazRSZ0NSUXR6MXJJVWJjdE5Ea25jV3BXeExWaDBWNHhuNWhEWkZFX0k4Z3VObWJFdTVmU0FOeHVrN21oT01oRHZ2MHJCVk9IVHZING43UVRYaVdZOU9TUTJUTmJyX21LdUs4THdORVFNRzFBRGJpcnZaenfSAeABQVVfeXFMTk5wUWlHQ2JJQzlmZW1qZktYS0dLTEdKS3VOY1ZFc2FoeVhCdjc2TzJkRHNYRW9rZWk0elFfZ3NlVGYtdnpzZXVvVFdCLWg1RzQ4UG9qUnZ5dTZVRzJTWVRPZ0RJSDR2OGdfQzBlY1JSazQ2eGZoV2JuT1FqeTE4RG1vNjd1a0pkRDA4VlhGOWUyZ3BjRzYtYTA3X3FGczBzZVlxX3NoWURrYVlRZnVrV1N5MDEwa2dfSXpVT1FkNUZZc1ZYazQ2c3RONWVvenE0bll3Mm0wbzRjdDFqT0x2eng?oc=5" target="_blank">“No hay garantías de que la IA no vaya a destruir la sociedad”: Dario Amodei, CEO de Anthropic, avisa de los riesgos de la inteligencia artificial sin control</a>&nbsp;&nbsp;<font color="#6f6f6f">La Vanguardia</font>

  • Zurich destaca las posibilidades de la IA para anticipar riesgos y ofrecer soluciones personalizadas - SegurosNewsSegurosNews

    <a href="https://news.google.com/rss/articles/CBMi2AFBVV95cUxOWHZPbzg3R2ViSHp0VkpsRWJkLXZnSVJ2LURGcy11WEpYSTQ2bHREUlVFY0hVZEt6N0kyMVVqU2pFbGVZVFpBdWw5SkdpUkMxOWQ1VVNlNmJieFVreENxbFh2YldrMlBTRGo4aVVjemdBeFAxN3BfMWQ4aHljYWQ3dkV6MDhoR3lIejNHS1FXUXo1YkpLbXo3R2ZMRGFqVE5BZ04td0hXS3NqdFVFVWdGZXhyMU4tVTA5OWQzUlhGMEpERHh4elpWendiSVB6ZWI0V3pxTC1sTng?oc=5" target="_blank">Zurich destaca las posibilidades de la IA para anticipar riesgos y ofrecer soluciones personalizadas</a>&nbsp;&nbsp;<font color="#6f6f6f">SegurosNews</font>

  • La IA mejora educación, empleo y autonomía de las personas con discapacidad, pero conlleva riesgos - ServimediaServimedia

    <a href="https://news.google.com/rss/articles/CBMixAFBVV95cUxQaE5RTW8xTGJvNC10REtSY0JrXzJpdEJQNUVzZWdNR2ZCSTM1S2JSQzRCdm1WZmRsd3Y0NEt4RXdQU0dIUVlBZW5sb0stbE4wWHh0Z0ROZHVITzJpWlhnZklnVF9QZHFtZDFXQkVuTTlLcXJOdHM2d2xlWkhIemc5blNfV3YtbWx6QlJPREd3YjFNZ1dadG5KMmFFT0pWcTRCVnRUYjNwU2ZJQmpmbVZtSVYzaHF5SnBUZEdGdTdyNFBNMmRM?oc=5" target="_blank">La IA mejora educación, empleo y autonomía de las personas con discapacidad, pero conlleva riesgos</a>&nbsp;&nbsp;<font color="#6f6f6f">Servimedia</font>

  • ¿Qué propone el Papa ante los riesgos de la IA? - omnesmag.comomnesmag.com

    <a href="https://news.google.com/rss/articles/CBMiYkFVX3lxTE44MlByMUF5U19jZVZnVWt0QmxZakFfQmw3WDY5N3oxUUFCQnB3emFES1J4UFVEbkFESHYtcmFjS3h2c0lmYm5HS09RMmpmSEVVRVkwOU5acHRBZ3VCcmlzWVd3?oc=5" target="_blank">¿Qué propone el Papa ante los riesgos de la IA?</a>&nbsp;&nbsp;<font color="#6f6f6f">omnesmag.com</font>

  • La CE investiga a X por los riesgos de la IA de Grok - Mobile World LiveMobile World Live

    <a href="https://news.google.com/rss/articles/CBMimAFBVV95cUxPTlNubWNlZHpXTUNFTS1DTWo3ZmhtUFF1V0RxRkVvSEtfcUYyS21vZGhXZmtrVG95ei1nMjBMWVRlbE0xczFUYTQ2c1lYMEpLdEl5czRCc3F2NGZHVEx5UTl0a0FMWWZObEI1S1pNdWk4Um9vaERMWGlkWHJpeGpab0loOHF4enNtXzJwQlJ2eXh4SV9OX2ppcg?oc=5" target="_blank">La CE investiga a X por los riesgos de la IA de Grok</a>&nbsp;&nbsp;<font color="#6f6f6f">Mobile World Live</font>

  • Davos sitúa los riesgos de la IA entre las principales amenazas de la próxima década - ExpansiónExpansión

    <a href="https://news.google.com/rss/articles/CBMimgFBVV95cUxOZ1hTb2p2UFBmV1VuZGRvVWw1X1dUc1JqMzBFclpSVXdzeWJ3cmJONXBpemc4T3pIY0ZkTWdFRVZBWE1RV2IzajRETGRpTHlqZ0JDTnpScGRzaEF0SHlOeUYxdVNWTDY2U1NQUjdVcmV3TjZtblhLMElYQU94ZzRWQTNEUExNeHp1SVdJWnlJcGdPOXdHaFA3X3Rn0gGaAUFVX3lxTE9mWGk0dEdBZjNHWlpNT05DSFh1Tk02cFR0VlJXdWROWTNEdEd3RkkwcTRabzg0YzBlM2h2cUVaRUw4eDQtYmF1LTU5QndkREVvdGRlYld3OEwyZlhaam1sSFdEYk9RZ1RJYzRrZkxzMzZGalZfXy1Yci0tLW0wODhRVmhjZWYtNzBmQzR5RXFWTlR0dEVieTFyM2c?oc=5" target="_blank">Davos sitúa los riesgos de la IA entre las principales amenazas de la próxima década</a>&nbsp;&nbsp;<font color="#6f6f6f">Expansión</font>

  • La trascendencia de regular los riesgos de la IA y la función estratégica del RIA - Law&TrendsLaw&Trends

    <a href="https://news.google.com/rss/articles/CBMiygFBVV95cUxQcnA5dml2VXFMUC1YVF9PU1VkdFJVRWRBZndGZWJmNzJkZ2l4dHdpMWVqRzg0RlpyY01FNmpnYVg5QzlKc2p3NUUzSXpGM1NRdUtyLTV4YXhoWGlobVM4QVBmTGpZZWhQLVRxQmhZUk9mVnphZGNzUU1BWldFYUZtcFlXRHIxZngtWmxmemM0YWgtMzNKcUEzLTMtMGpDSGJqYUczRzBzajE3bEpsOEFiemcxc1dtSmsxSTRCYnBNWkw4c0wxTU5YeUZn?oc=5" target="_blank">La trascendencia de regular los riesgos de la IA y la función estratégica del RIA</a>&nbsp;&nbsp;<font color="#6f6f6f">Law&Trends</font>

  • Los 10 grandes riesgos de la IA y cómo gestionarlos - Computing BPSComputing BPS

    <a href="https://news.google.com/rss/articles/CBMipAFBVV95cUxNZlJ4d0Fmb3hTdVRmZGx4Q3kyY3VoSXpTbU1vUkRrbnctWDdUY3NlU2wxTFFDeENOeXU5emRtQ3pIeEhwejV2UDNlSWN4TkpaR2dwUmRMRy05eTZBY0R1MGF3eEltbmVia3BIbmJsTVMxckdYNW5qNkVlUTVHSW9ZajNOenBjOFVaeGEyWHlxSkhPVjd6OF94RnhNSUVaQU5jb1dCVQ?oc=5" target="_blank">Los 10 grandes riesgos de la IA y cómo gestionarlos</a>&nbsp;&nbsp;<font color="#6f6f6f">Computing BPS</font>

  • Economía/Finanzas.- Funcas alerta de riesgos de la IA para la estabilidad financiera por la dependencia o el empleo - BolsamaniaBolsamania

    <a href="https://news.google.com/rss/articles/CBMigwJBVV95cUxNTXNJQ0otMzRJemwyWjVxSEJkSFhpYkY3LW5fQUdfejV1a0Z2WnE3dmdydmNRMzJ3TS15VWtMTnhuVGhPZWpyTmN5YWZONWNrYUQ1UXQzcVlkX3YtUXZ1LVA0YmhHN0ZsVHUxSi0wbFkwY3dJYmFDb18tRjdId3BEbTBhRjRQdmN2RXRLUWc2aTVhMnFYcThkeXRxRndoaHpBVjZLU1c1eW1xYkhJeEJ4c0RPS1VRUi0yNUhxeGpHTHNHSjhkRlNRak1CSElDeHBibndRQnl0My0tQ1F3ZzFxaDNEN1ZNN2d3TnpfaWdaMy01TEMzX2FWTGhQNFN3dmtBU2lj0gGIAkFVX3lxTE10emlLaHBkVkNpdmFIOUdGbHlHekg4UjJEaHdZM2dsajlndTdRVzZITFpYcHRVUngtX0V6dFlDVWQ4YlBxdmhnb2VSSHJqMUhjMklUZ0VsMEZnN3lqMF9aWG4tclU5Q3FLZVJsNlNUeDFFQS1XeHBOU0V6RFFJUHNzbTdyNlJkVGF2RjMzS3l2X0RWZVhqVThiNy1mQjE1WkdXcnhkLUZ2RjljRC1FM1k2NkpXZ000LWVfRlhkdC0zaDdhMlNfZTJmd2k3bmJLNWxIQTBsUjZ2bHFUYXFESUpZREl4YmdfQUtPOTRSaTlrdnhOMjY5REdJM3ZONUNFdkhqWU94NEFfUg?oc=5" target="_blank">Economía/Finanzas.- Funcas alerta de riesgos de la IA para la estabilidad financiera por la dependencia o el empleo</a>&nbsp;&nbsp;<font color="#6f6f6f">Bolsamania</font>

  • ¿En qué consisten los riesgos de seguridad de la IA? - www.trendmicro.comwww.trendmicro.com

    <a href="https://news.google.com/rss/articles/CBMicEFVX3lxTFB0TUJvejRXR0xrdWhiLXRfU1hZVFJHYzMzY2FrSGhLcEVvWmdDQnlia0d0ME1qaTFnazVybFVjOFNsbUtYdHFGaDBkYzJhZ2JoVGExUS1Tei1uSkhQaEh3Ym9yQ3I1Vkh3YmthcldvY2E?oc=5" target="_blank">¿En qué consisten los riesgos de seguridad de la IA?</a>&nbsp;&nbsp;<font color="#6f6f6f">www.trendmicro.com</font>

  • La IA entre los riesgos 2026: los cuatro escenarios que ningún comité de dirección puede ignorar - El DerechoEl Derecho

    <a href="https://news.google.com/rss/articles/CBMiuAFBVV95cUxNUkhYdUo5Z190aVYySzd5X1R0WXBWbkwxWUhHSE1telNNaEF0WEFBOHQ5YzVvQlZBVWlIOUlBWkRab3NSOFdoN2ROVmNxbDVuRjhUVmVGZGNsU1ZsV0tjdkctREFRQjRRbkVsUjNhZlpDYVg1Z0l0Y0xNZmZDQlRLVTJTN1Ewb010ZG5vb0F5b3F5c3JGNmxmcmR6bXh4Wmg5RFNTMENLZnBLYm4xV3dsTlNLRnlzeDl4?oc=5" target="_blank">La IA entre los riesgos 2026: los cuatro escenarios que ningún comité de dirección puede ignorar</a>&nbsp;&nbsp;<font color="#6f6f6f">El Derecho</font>

  • La OIT advierte de los riesgos de la IA para la inserción laboral de los jóvenes con alta cualificación - elDiario.eselDiario.es

    <a href="https://news.google.com/rss/articles/CBMiuAFBVV95cUxQV2M2RlRjTGFHNl9IRTNueEpKMFZjMnhWU29YdTNkS3YyN05oc0JyeWU1MmhkM1B3SWE3Z0hGNnpqSURuYTBaT3AxUEVfbk9pak00TklfMXNILS14ZXRZd3RmU3NVMWo5SDJuZnAtUWd0a2ZJX3JwN2trM0ozNFNwMkV5LUI3M19zVUtTNGk4N3BVSDZuSzdQMkdkNmFnWTk2MXhUbHM2c0hnTUpGNGR2UXZxVko5Qzgx0gG-AUFVX3lxTE8xSGk2U3dYaVhTZ3VJbWVPU2oyUHZtXzlSSENsVjdVcTh2blhuTXlvaU5BUXFkSkp6MEdzN2VrelBONlB6dV9BYVlES2NCbzBfS1NYajVWNHZ2RTY4aG95YkNTUmFMLTF3NWJlMUtZd3ZyX0xrTVl0ZzVDX0w0NFRZYUZ4czJXcHNUbnpfLTFTWHhwVjRpTmNoeFlReUdvNV9LUE1ObWJ6bXBzRGNWNklGMERhaS1aRkhWaks4T3c?oc=5" target="_blank">La OIT advierte de los riesgos de la IA para la inserción laboral de los jóvenes con alta cualificación</a>&nbsp;&nbsp;<font color="#6f6f6f">elDiario.es</font>

  • Riesgos Globales 2026: Confrontación económica, incertidumbre social y ansiedad por IA - IMER NoticiasIMER Noticias

    <a href="https://news.google.com/rss/articles/CBMitgFBVV95cUxNNzZLYzJXNG9XMVpFUV9WZmdHTU9JcGNhNldJWmx2eTRhRmtzZmlkU0lkaGdTeVIxWEJhUzlzOVFUc0ZvVXFPOEVXaVZGQlR4UWFuSWV2elpnLTdSWXFPekNjWkY0OGU2UzRpenotYzRaUTBVUGNfRUlRTWR6TWFFZ1VDQXZIZmNOV0g3Z3RReUhkS2MzX0QtUFRCVEJlMng0MTR2bFJJU1ppVl9fbmRLWDhReVRxZw?oc=5" target="_blank">Riesgos Globales 2026: Confrontación económica, incertidumbre social y ansiedad por IA</a>&nbsp;&nbsp;<font color="#6f6f6f">IMER Noticias</font>

  • La AEPD alerta sobre los riesgos visibles e invisibles del uso de imágenes de terceros en sistemas de inteligencia artificial - Agencia Española de Protección de Datos | AEPDAgencia Española de Protección de Datos | AEPD

    <a href="https://news.google.com/rss/articles/CBMitwFBVV95cUxQc2tlb1lpMEhoNGtTclNXV3E1SHB0clkyRVNlVXhTNmFLQUNKZ1hWYmdEQl9ER01fT041M1VUQUJPYmV6TXAxOThHdWh2OVM4bUd1NFdOeGZfVVRES1NIV040ZXREdGFTZm9sUnJGejNEMnZ2TkhNbm12MkhkZ2QxemJZY3gwYTlZT1dqN1E4QS1FOVFRc1I4djl6NHZGZDgxNFFmLXVXS19SYXM1bjhxXzlHZTRVQnM?oc=5" target="_blank">La AEPD alerta sobre los riesgos visibles e invisibles del uso de imágenes de terceros en sistemas de inteligencia artificial</a>&nbsp;&nbsp;<font color="#6f6f6f">Agencia Española de Protección de Datos | AEPD</font>

  • Protección de Datos alerta de los riesgos de publicar imágenes de terceros creadas con IA - naiz:naiz:

    <a href="https://news.google.com/rss/articles/CBMi0gFBVV95cUxPenN1QVB1S196OXo0cjZhb1lBdmQ1blNIbUV3UXIzcVRkaUhnZmJIZlNHUl9hb2dGbEV4RnBIeHNIUGkzRFJLa3JOUUowZDA1VDlmZHJLX1JPeUc0VmF4MEZkdHFSZDREMjg5WDEzZ0FXaWc0djk2U2ZEVm42Znc0dWNvOTBSSGo0Y3JrYUVSb1BmU3NBaXQyZWNHaGxYVW1jYml0emJ4M3E5SlE3emt5Wm5xakRiSWlLX09FaXZaUmxydTdvNnZNYS1SWTdZalZoZUHSAdcBQVVfeXFMUEp1ZUdwM1FRUEo1Q1pIUHZ3cWhtNXlld2FlVVI2aXhKSG15cGs2R0VJS2IyNk5LSTJHbHFMS1RUQk9JTTVobVpwTWVOYWlFNGtJN2J6NmRnQzNGODdOZFBZZ3htU1BzcHhQRUg4SUZaOUl5NXI2cU5tS1VSV251MDRiR1RLLTVuU1pyRVRHTzkwNTBiUnp5WUNocGVuaGVpVEtJWC01c2RCNF9FWDgtYlFRbl9nVjdZOFp6eThCRmhydGNncGZlUXZNalMzVWt3SnRrd25KblE?oc=5" target="_blank">Protección de Datos alerta de los riesgos de publicar imágenes de terceros creadas con IA</a>&nbsp;&nbsp;<font color="#6f6f6f">naiz:</font>

  • Alertan de los riesgos, incluso penales, de publicar imágenes con IA - Noticias de NavarraNoticias de Navarra

    <a href="https://news.google.com/rss/articles/CBMisAFBVV95cUxQYTBnN1hlOWdDdDJ0ZmthdWRSYk9Tb3FUTWMwZDI5eFl5aXhrZ2kyUlVxUGNQYWFYTWNabnMtbml6eGJWdjd6SHJxZ0ZDSkN0U2dzeVpmTUZGQkFaWDJZVy05VmJfYWlmTGdtS0tqOHhaZFhEX2VyUWxVMmtrZkdhUVRid1l0ZC1MSjJ1NFJReHFyRWM1eXd5UFlSbnVoQVh3VFZGUUlsYjNyaF84cUpVUdIBtgFBVV95cUxPTndLTVZlYzMyT1d4aXlNZmg0dkFraUpzNGc5Y1VQWklLTmE2VDRfaVlNa2QwakdMaW1Pbm9NaVFmZTlHeVIwU3RId20ta1FwcW1JaWNFUVBfXzBoY3VlV2NUOFpNdjJDVmpvNzVkTW1fd1AyTHJqd0lxMGdMR2EtQUpLNXRzaDRJREN3bXc4emx2Tl9oUm9EUVU2ZVZfTzVabWtfZ1lvY3ZKMW9xbDRiQURWNVMtdw?oc=5" target="_blank">Alertan de los riesgos, incluso penales, de publicar imágenes con IA</a>&nbsp;&nbsp;<font color="#6f6f6f">Noticias de Navarra</font>

  • CEO de Nvidia minimiza los riesgos de la IA y advierte: “El miedo solo perjudica la innovación” - InfobaeInfobae

    <a href="https://news.google.com/rss/articles/CBMizwFBVV95cUxQTU9yMHYwcnRZVzJreDJRTUNSd3hVMFdzX2JJeDJaTGNtZnBvZjBGRC1oc21yZkI2c2pIbmhkZHVTSU5NUEJsb19hbVdUSGR5REQ2QnAtQnp6LUFIcGNVbEQ1M21pVG5XZkdUdXgxdUxzSEcyRW5acWpLRG4zNjNLNXBLSE01d3hGdExONEZnTV9COWNaVTNWODdvVFcwMFNSMEZlSjdaZ1QwYm5UeHI2YkFrNjk5TXRZSXNzMVlVSGUzTXgtY1EwOUJwZGFuOFnSAeoBQVVfeXFMTy1fMDFlTlVJRS1Db2N0T3Z0SzZmU241a1YycTJqSzJxMGpEREpaWjhYdGVaUE1xamt0LUxiZEt6Nk14LV82UnY2SXVqM2treWduaDhqcHNHbmNqeFJfWVAwbjFjbDRMV0J4WTM4WUZUX0paYjlBNU1rUFE0Tlh0amJ1T052dHB4UTVpUzRlXzlKaVR4RlZmTVcyQ3R5aTE3blF3UXNpR0daZ19fMkx2OEdlNkNrZlpxY2pyaGxWQWwxU0ZpSGRybzhwVXlfbDdEenpkT3ZBQmdqTVFVNkVxdlNqMTU4Rk9NVnF3?oc=5" target="_blank">CEO de Nvidia minimiza los riesgos de la IA y advierte: “El miedo solo perjudica la innovación”</a>&nbsp;&nbsp;<font color="#6f6f6f">Infobae</font>

  • ¿Qué impacto tendrá la IA en la Prevención de Riesgos Laborales? - UFV MadridUFV Madrid

    <a href="https://news.google.com/rss/articles/CBMiogFBVV95cUxNLXFlcTQ3NnZnM3lFY2RJNmZsNkx3SkNOWkdHMlloWFdPS1R5OEYwZjF1cUNOTVFsU0ZOemp4cGpHRmlZV2xBWHUycE5SSHptSHVBLWEtd3ZSdkNHdHVLcDllZWsyRFhKWjNkQ2hveDV1Um41ZXZNcFJNQzRIYVZna1lVdHdtZ1MxQWx3OEtPeWV0V2hfZzExWVlfTHRCcnQ1SFE?oc=5" target="_blank">¿Qué impacto tendrá la IA en la Prevención de Riesgos Laborales?</a>&nbsp;&nbsp;<font color="#6f6f6f">UFV Madrid</font>

  • Pere Castellví, profesor de la Universitat Internacional de Catalunya, sobre los riesgos de confiar nuestros temores a la IA: “Solo simulan sentir, puede provocar una ilusión de comprensión que confunde” - La VanguardiaLa Vanguardia

    <a href="https://news.google.com/rss/articles/CBMiwgJBVV95cUxNU2R0QW5QU21tamRPZlg5T3NLdDhrQ0oxWFdmM0NaOTFUaUlSeHVEUVdwbnpXZTVpN2hkeDhyV3gyX1h6WG0xSVhaS0lNdVgtcTJXd0Q1Z2sxTWQ3dENCdFRfM1JIdzRFTTR5U3FsWDB3dVdoZGxUcHdjckFYSXJPc1JjTWg2V3drcmp0Y2Z3ajRiZFlJeU5JYU9NREhYcTdOOWNEU3dBNy02UHcxZ1RSUmw5cmRwN1lpdVczOW9vQVdNRFNGMWpYbFpnVGpWSHU2eXBlb3pLOTN4YmFGNXJzU19EbmZHb0MtVE9PY2FYOUlscUUxbEVoODJZYjVMZ0s4aDBzOGVGaXRrRjZtOWM0TFdEMmhxSzc0NlhDRkRNdDViaXphSFpPS1J2YW0wZjhIUUVVNFBURy1QZ2FiVTgwZnln0gHHAkFVX3lxTE9hbjFhWTM3SDVGZ09FckpqZWkwck84anFWM3BQc1FuQWhMTlZuNTdrYlVMZWxhRlVJRVpTOEhlc0pDbG5TOU1pZ0tyRTVjUzVYbmgzSFNVeDBTWEM0Y05mQkNxZ1FLa3JpalNMZXlZbFJLV0UyUnA2b2FuSzZtZW9RMlpyU2pzMXFpajBxWFcwdDdRUFRLYndydklya1hMc2UyX1lYNlBhNHZuRHRSV0lQSm1CbjNrOFhtV0FELXFpQ1NBTVNfMWR4WXJRTXpMQko0dXZaUGF5TzNhM1ZLb1llRjk5a1FJTWpEQjZYSGY4QXMyQlpQZ2w0U2U0QmZLeXJmM19RMDJJRW1LbE5aeXRqdkF5dUUyWXprSDRHU1dQc2ppMUprQ1d3cTlScU43RDM4OEpkX1NDSEstdVB3NFY4SFoxN2dObw?oc=5" target="_blank">Pere Castellví, profesor de la Universitat Internacional de Catalunya, sobre los riesgos de confiar nuestros temores a la IA: “Solo simulan sentir, puede provocar una ilusión de comprensión que confunde”</a>&nbsp;&nbsp;<font color="#6f6f6f">La Vanguardia</font>

  • Un mapa global de los riesgos de la inteligencia artificial, que acongoja un poco aunque apunta a soluciones - MicrosiervosMicrosiervos

    <a href="https://news.google.com/rss/articles/CBMioAFBVV95cUxQbXhnU1pqdzJBQ0R4ZVg4XzZ2SUJMMHpOdEwyZEpsWFQtdXN2Zmh1RmhWYWt4QlctSnFWLUpkQWkwNkJlWDVEQUhnbllUZ0hTVEwzOGh4MUY3WG1ZMGJqdnNTM0lHVDVuaGZtcGYxeExCampVcjN0MjA5S09PRWE2MWdjZUhEbjd1QUVXYkMxZ3hyVjVleEw3eUF5dmh3WG1r?oc=5" target="_blank">Un mapa global de los riesgos de la inteligencia artificial, que acongoja un poco aunque apunta a soluciones</a>&nbsp;&nbsp;<font color="#6f6f6f">Microsiervos</font>

  • El jefe de Instagram avisa sobre los riesgos de la IA en 2026: "ya no puedes confiar en tus ojos para decirte lo que es verdad" - El EspañolEl Español

    <a href="https://news.google.com/rss/articles/CBMi3gFBVV95cUxNQXBLWXEzRG9jUmpHRkdWV0ljS19kZml2Q3N1R3NxVV9VX1plWFA5bWJBLVVWWXBzemt1T1VrY015MnNQb3AwUGFpRWc0UEtxVkFwYWVvTkhDeE1LZkFmUlF1YU5WUHI5cml6SDdQaDhNZUFwTmlZbjV5dzY4TUtVTllva19DS05qVm9iX1Bsa3R4OEozMHE4NXRiOUh5YkI2R2daVDVKblR5ZVFpRHltXzA0WVRidnBpVFViZkk4cU5XOEwwd2wtMThxX3BUTDlQa1lTSmxzWVRWM0J3NWfSAeMBQVVfeXFMT0F3Ml9ERGJmSDQxQU9aV0ZzN0hZNzJtUGRkTVJ2YllReFdZaGtKREpHUXFRNDg4M2gtQmt6MEdjellyVUpNRTJrd3p5YjIzdlM0SlRGTDF4TXZDUVhwWFVNdTRsOVVjTFd3dy03cG44YkZJSXFnSEhRb0hTemltYTJIYndzTjJEN2NCNUZ3MXliTGJxbkhzamNVZ0JpbzFfdDR2Si1pVDZBRHp3SGJTTHIwTVJOQ29yZFZqT0lTOEVqSEVGSHIxc3ltZGhaUWN6WlRvajBBSGhRZlNSVFZLTFBqVms?oc=5" target="_blank">El jefe de Instagram avisa sobre los riesgos de la IA en 2026: "ya no puedes confiar en tus ojos para decirte lo que es verdad"</a>&nbsp;&nbsp;<font color="#6f6f6f">El Español</font>

  • OpenAI busca a un nuevo "jefe de preparación" ante los riesgos piscológicos, sociales y de ciberseguridad de la IA - GeekneticGeeknetic

    <a href="https://news.google.com/rss/articles/CBMi6wFBVV95cUxPQktxaERDVTZyMDRoTXFQdEJVc3ZTMi16VWZJUDJtQi1obVFZUkdaeG0teEtGTmhEelU5aWNVUzA1WkdabXhfN3ZFa0JqZlhrbkd4aUpCN1RkMERXRFlqOTRqUzJlTUI5cDRONUtmZDFvZWo3cmR2a1BPQXFMZHNvdHNUNFR5S3AtVVoxTVFocExxeXBsNm5ab0F1V1hfNTFITXVFd1NzLVdSemRRdmRsa2o3bmdwblJHS3Nnbm1NV01DN0JETDROeW9meVppM3k5UWZUZUR1a2tBVzNhMTJHV2JfNHdIdFBRbzk0?oc=5" target="_blank">OpenAI busca a un nuevo "jefe de preparación" ante los riesgos piscológicos, sociales y de ciberseguridad de la IA</a>&nbsp;&nbsp;<font color="#6f6f6f">Geeknetic</font>

  • Desinformación, IA peligrosa y dependencia de grandes plataformas: estos son los principales riesgos en ciberseguridad para el 2026 - InfobaeInfobae

    <a href="https://news.google.com/rss/articles/CBMigAJBVV95cUxPVWpESzkweHRYdS0xRTVndWJXalJHU0cwbVVYRU1qZW5EdjVkT21FNnBLZTVrZmpFQWFQV3k0U3A0ZFhyeVdvYUZhS2dsc1BrN3dkdUZlSDI1a0daeWFPY1hUZG1jRURYa0dUeGZLTmJzR3hnZ2Z6eWRuekY5RGtVaDgyYkxCdUFFZWdpTGtsVGIxMnh3ek9zbjY2X2k2NmVLY1BzZS1HVDRIM3hqV2dVX0xWTC1ZZmhzSmxwaXhUaUtGOTBBWGR0ZTM4MXRrRW12ZnVUVTZSN1lsRzFlTktqQ0xFT2U2azZQaktGWkFmWjhOd1ZsRkpXd0dfY083TUhi0gGbAkFVX3lxTE9vUDduNmh5bzZVd3Rudy1IeFJURnZqOFMzVHI3eWpYbUdVa2c5cGdUWXpvWDZBRlZSek9kUVQ4UEdHd2hnMzFVZThnLTdiRzRFRlBNa3ZabVRrc0puRzQwMHRONFBiVmdUV3k3enFOR0VXaUxQQkJYUHFXOUJuSEVsOG9sR2lpTmVlVGRQemdsanpkdUQyd3RweU9hM2wtM3dzMG9pZEFLbmdOdTlMSnFrdGFxQThnNHotd2xES3M2R3pLUXJaNTVyYjFtSjBlZHZpVExaUWpFQXptcW54Y0ZfVTN2TEY0SEttVW9XZUlSMHVUVnQ2SzE3cUJOWjV5UFQ0QndwdEFzeUpuc0FwMjNJUU55NDF0LTFkQ3M?oc=5" target="_blank">Desinformación, IA peligrosa y dependencia de grandes plataformas: estos son los principales riesgos en ciberseguridad para el 2026</a>&nbsp;&nbsp;<font color="#6f6f6f">Infobae</font>

  • Juguetes con IA generativa: una realidad que trae innovación y riesgos - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMimgFBVV95cUxPTVlqM1JBTWtIU1pQNTh4NzlsV0VnLXM5dkRJOUdVMlVLWl9JMDNEQlBCSzZzemZ5LU0yQ0RTWmNmb1N1UWI3cTBRTW5sYXJyU3lmemFMN095NGo0Smk2MkpXNWpxajAtQkVHU3oxd1A5bER6T3FDQ2JBX0lEdWJZdl9ScUZQSktOazhvSTB3SElqclFUelpmYUtB0gGaAUFVX3lxTE9INVJNNEFFbW5xbndHZ0JrWGppcy1sSmZUbVR4WXdKWVNGN0l1Yk9rcXAzZlI5Q3ZzQUV1VnB4UldGbFJzMVQ5dTlsNFZfRHBCM2c3dnMxWWFxRy1BV1VtWFRSUUpfSnpqQ3BETER1Vk8tVnVvYldmV2czRkp3YW9lNDBjUll5TnlfS0tvbWtVa21iY2FDZ3FVWXc?oc=5" target="_blank">Juguetes con IA generativa: una realidad que trae innovación y riesgos</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • Por qué el riesgo de pasar por alto la IA responsable ya no puede ser ignorado - The World Economic ForumThe World Economic Forum

    <a href="https://news.google.com/rss/articles/CBMiuAFBVV95cUxPMG9IT2xUeGJid1JRTmR2REh0V1NVcFc2eVMwMlB0cy1xZmNMVzVudGthRU95YVBIU2g2TlRNR3g2RFFNNURVWnU5cEwtZzdhbVhkOGgzbzBDWHlHWnJuWnh0WW1KRkpKdkFOcktCek1EcUhxVVVDTW80aE81bWpzTFpZYi1YR1R3eUFMT2Q5clE1dVJwZ1NDN0RxRzA0M1M3TGpwLUQwb3RST1B0NXRubHhwa0hFZDhm?oc=5" target="_blank">Por qué el riesgo de pasar por alto la IA responsable ya no puede ser ignorado</a>&nbsp;&nbsp;<font color="#6f6f6f">The World Economic Forum</font>

  • Los adolescentes se lanzan a usar la inteligencia artificial para estudiar sin control de padres ni profesores - EL PAÍSEL PAÍS

    <a href="https://news.google.com/rss/articles/CBMi3AFBVV95cUxOT2MtOWY5ZElGaXVfS3drOVJEQnV6b3ZMd3Ywb2xJWkZuSEx1YjZna3lkdC1WYlc1QzJ0OE1yaVBLd0ExX0JZUlRVSEFuVG5TSXplZ21IYjgycHMza1J6MmdMY0dwRGx3WFFERHh0Zmdka0t2STdiTmRoWFlBWDNXeXBrMElubS1SMS1IOU1DSnVoTTBvZlItbmhnRVdzVHlfb1VWQm5PTjhvSEx3Qy1QR3lkelYzS3NUQWxqdjRqc3Q0RmZKOEFCbE4tNWQ4b1RETl9KRkZFdEVwSUNn0gHwAUFVX3lxTE51RDVIWlFoazNOVjE2M1VWbEhTMDFhdFdfX3V4bXFkcGNGQjVWSVlIUVZXMTlWU3oyMW50RTM2M052MFROb1FHTlFvb0xQbVNYMi1KTkVOclpRRFM1OEZ3ejlkSFJzUndyMmVvV1ZZYnc0X3RST0diZkc5S2poWTlocUc3TWI2ajM0RklTSXdSbGNSR1JOWEQtWE1CVkJWWl9pdUl0bGtRTm5fNG5fMmhYYjhpb093TWtEcDctT1VhQUZfMzVDaFkzYVpScTZxd2VnSThteVY1N1dzT2JpR01FakRXem5iWmNNckxoV0FpQw?oc=5" target="_blank">Los adolescentes se lanzan a usar la inteligencia artificial para estudiar sin control de padres ni profesores</a>&nbsp;&nbsp;<font color="#6f6f6f">EL PAÍS</font>

  • Los riesgos del mal uso de la tecnología en menores: "Los niños ya no usan la IA para hacer los deberes, sino como psicólogo" - Cadena SERCadena SER

    <a href="https://news.google.com/rss/articles/CBMihwJBVV95cUxPNVBiVUNVM0JxWEhaN2F3ZC1jZzhXcmJVSVhfZ1N0TXAwZTZSemhMUkFuRmYzeV9ERWRQS0tiWUtXSlJHR0ZrSDdscnJqVzRHLUVVU1JCQVpMMmg4cGRDZnNWaXFLNXBfbV8xTzFCOU56V3JuM054MFpGZG51ZnBhdWRNbTQ3Zkxrb0VaSXVndEJDcHBMdUdTUmpVMlFWdk50OUl1aUpRTDg2NXhIMWdQck8tN1g1YzJOR3VNdVkzdmJZY0tfWktxWkxaSmd0TVhScFA2TGk0RWNXRUlmMzFhN3o5SUhKcjFDUWdFYXc1bmZwNFVZVnNyLS1iYVNXajhNU0J0Wl9uTdIBmwJBVV95cUxOZ0xzZUJVdTZJVlp5aExza3ZBYkJvdTg4c25McXNYUlNWMjA1OHBRVF9JaEgzQXRwVXFPdXk2ckFacGZ6RE1mbHdaWTlIcXIxSHNoSTNlOU1JUkVaRUZfdmVLdkYxbGZRcTFaWTZzZGItd3dGOGgzamhncFFySmhFXzdxbk4tRjc1LVpfQTB1RXhsdWczYXJEZVBoRzRXSVMySFJFbGNjeXhTN1VodGJuUU1RSjNxWUswZUpQRHd6blhoN19qdV9scmNDazdHVTYwbXdzcXZ4NnNsWUdzajRjVTgwUTJLdzhBS0tSa1RxbGNVWlRIMDZxU2JVbmN3QWgzc1NHUFUyMllmZjN6eUhvaFMzeE5GcFdzalBJ?oc=5" target="_blank">Los riesgos del mal uso de la tecnología en menores: "Los niños ya no usan la IA para hacer los deberes, sino como psicólogo"</a>&nbsp;&nbsp;<font color="#6f6f6f">Cadena SER</font>

  • Las direcciones de Comunicación refuerzan sus planes de riesgos reputacionales ante el avance de la IA - DircomfidencialDircomfidencial

    <a href="https://news.google.com/rss/articles/CBMi7wFBVV95cUxPSW5ub0Itd0xKVThoRXNWaTlwWkd5Sl91akRPOVNyekhaT1dtd25QaTQ5SDMyTkZKMmJ0M3k1LVNERGhzOGRWbm00VnJSVktlQUtNMlJGT05GZ1lVUC1NejFROWdYd3czNUgxZzdhVGpWODE3NGM4VDd4UWJPVWZvaFI5MldQR2RMZzZBMEVwT1BraVpEbXJubm43eVBub25DQnpQcW5ybVJQRGRtdktKLVZfTlpSSFViakpodEJ3ZkppMjJkRXNGLVJFSzlqZ1I2SWd1OUlIam51R180bDJiSFlxb0ZBQ0tnTlpZVHBKd9IB9AFBVV95cUxPeFFvbnJFb0Nfak1SaDROeFEyZmdmb0pHUjRoVVhTZjg1bGdFOFdCSzhjQmktWDZtenlYZEw3dkRtXzI4aGdNRG1wdC02QmdSTHJvVVJVbmdtUXJzQ0tlaVh0cDVYN3p2aGdpdHNZck94dkpVOVozRWIzRUdEQXRLLUY2TWRfLUtrX001b1RtTEdvckN1c2pDdzNYUmJLaERhRXloRkpSUUpmSVJ3b0hOT0hXZkRRQmRnRkg4dDg2ZlFHc2pDS0xsLURmdUk1NWdJM19razh4ejhPZVVzazd2MzVwdGdfSTNKdTZzeG9tOWdwSFhW?oc=5" target="_blank">Las direcciones de Comunicación refuerzan sus planes de riesgos reputacionales ante el avance de la IA</a>&nbsp;&nbsp;<font color="#6f6f6f">Dircomfidencial</font>

  • El doctor IA triunfa entre los jóvenes de 16 a 19 años: los riesgos - CuatroCuatro

    <a href="https://news.google.com/rss/articles/CBMirwFBVV95cUxOVHNMdTN0RURRdTNTcVF5SnZMdHlHaVgxTzhIMTh3alotUGxFY2FTMXZ1dWtjY0VDRFdQcjVHdmhQRUVaLV9KY1Z3MWRUeG1XSnRyeVRRcDhGeS0tRjRNR3U5dklOZ1ZEY0xocHQyMGhIWGhEQ2hlN3RrVEVVOE1icF90R0ZwOWUzU3FxdEVHekxGWVZCU3RBMk5YaUFOZFZtd0pPNGhBNnExYzVlbHMw?oc=5" target="_blank">El doctor IA triunfa entre los jóvenes de 16 a 19 años: los riesgos</a>&nbsp;&nbsp;<font color="#6f6f6f">Cuatro</font>

  • De Google a ChatGPT: los nuevos riesgos reputacionales en la era de la IA - Cinco DíasCinco Días

    <a href="https://news.google.com/rss/articles/CBMiwAFBVV95cUxPMFMxVGgtTGN0bVNZVjJyTFB3S0ZQcXBncTBwYm1QbmwyVU1DM29MajhnTXprNnNmUGtYcGtrRENnSzMzYzVSTlpmbzliUmVjWlNyVmFXNnBXblVRaGQ5VzAwYlBNQXVWTENFNTNKWTdjb0pscGZpVDhhREc4UURXb3RmU0xnYmtfamhMZEE2T3JiaEtUbnlsSi1PWjE3ekE2OU1lalZ1RllvdG42blBJNmtQcTdlT0ViS3BLaV9tb3LSAdQBQVVfeXFMTTBtME9nb04weEI3TFRvU2l2SllJZ051dXQ3cjBFUVBDOWFobEtRckNmcVlYQjRfN2wwWkg3c2tKalJPbklfN0tuUkJydlpDVHR4a2VCNzdQU0k0dFo1blFlaG13UzdaRXd0SEJTMFhnVFJwVmowWjcxRTUyMGt1QXNrS0p0M0tfdktyRkpwSWxSX2EwU2hPNU9SZ2pWc2ViVTZ1bHQtWVNNX3FnTmVTdXZ0Sk1ZaWZESjFkTGFUMXR3QllIeXYwemJnc3RkSG5qRUNhelQ?oc=5" target="_blank">De Google a ChatGPT: los nuevos riesgos reputacionales en la era de la IA</a>&nbsp;&nbsp;<font color="#6f6f6f">Cinco Días</font>

  • La CSI alerta sobre los riesgos laborales de la IA - Sindicato USOSindicato USO

    <a href="https://news.google.com/rss/articles/CBMiekFVX3lxTE5uNnZzZFROVnFBZnVZUWpWdFZsV0QyRXZRLXRlZl9CQXc5TU5CT196ZWpRbHpqUDRyRTFjZ3lma09BUnB3WHNXYzRDajJOWXRoNXpTN0tabWNBU2IwZnd4eFN4bVFQUmRMNGVOd0t2OFpqdnpsM3BrVlh3?oc=5" target="_blank">La CSI alerta sobre los riesgos laborales de la IA</a>&nbsp;&nbsp;<font color="#6f6f6f">Sindicato USO</font>

  • Gestión de riesgos en sistemas de IA: Directrices del SEPD - CuatrecasasCuatrecasas

    <a href="https://news.google.com/rss/articles/CBMiswFBVV95cUxOQXZyeTVpS2FnVXg3NjExR2FzeHFyZ1dBeGhZWTdwU3M2dkxkNHpqaGk2bVRmOFgyRjZBM2stOUctek1meVhJcHJOQUVnY2JoWkpWM2ZlUzZoSGU2LVRHd2gzRTVGT2VneU5Ia1ZYM0c5QWxaR1FpYnNrMHh0ME8xQi1Fek12MUgxU1lPOVYwNkxqNmF4S0UxaUFKekozbGlzd0FyZGU4VFdpSmNSQmxSaklrcw?oc=5" target="_blank">Gestión de riesgos en sistemas de IA: Directrices del SEPD</a>&nbsp;&nbsp;<font color="#6f6f6f">Cuatrecasas</font>

  • Shadow AI: Por qué el uso no autorizado de IA pone en riesgo su empresa - WeLiveSecurityWeLiveSecurity

    <a href="https://news.google.com/rss/articles/CBMilgFBVV95cUxNOVFHRjdzd3ZScEc5VFYzTHA0MF9tRjNxZU5iTHFJbzIzYmxIQ3E0T0ZXaVlYSU1HT3ZqbjQ5V3ZRRk01NTNmRFRBRzF3MEdWQjJkd2gxU2JJRnJBVmpoYWFfN2E1X2ZaVTVyS2N5ZTdPakJob2Viak5ldC1LSjdGb0hRNUdDVWVjVWVkMmpjUHhDd09ZYXc?oc=5" target="_blank">Shadow AI: Por qué el uso no autorizado de IA pone en riesgo su empresa</a>&nbsp;&nbsp;<font color="#6f6f6f">WeLiveSecurity</font>

  • ¿Cuáles son los riesgos del uso de la Inteligencia Artificial durante la adolescencia? - Cadena SERCadena SER

    <a href="https://news.google.com/rss/articles/CBMi2wFBVV95cUxNMDZLRVg5RWFmbENNa1N0UDRJdlpOaHRnN3ZIZW1VYjBmTDFOdE1ha1ZmSlB4c2hKbmNSQnpuNmRUU0lKOTh6aHJ1Und6YlJVMFZjNkZ5cndOTDQzOExCWG94UzhEU3B5WmZJdjRTMWdOWUlna0hOSnBDeElXS1ZmWkNWQ2lLVENJa3R5b0l5aGYxZWNLbFdrV1AycElkVlVCV2dMSGdtV1FVQ2ZxTmlVdTgybnJVcmZGSmI4cUNqaENMOTZOXzZqMHBwd19pZTh4QzdPenVtc0hOenPSAe8BQVVfeXFMUHdPaUhwbTlXZjU5Tng5MDlqWmZoQ1lTcklqdVl0OVhndFp6blBoTXFQTDVHcGg1OTdiWEE1dFd1bFNTQ2lUOWlDQW9IZERya2FzQ0VMVXJ3WTFDeUtocEU3MkZMVkxRQTlPTkozNVRXS1o3MUlLTjRfQjNhWEE5X1lleE15UmxSenJaUHhEZC02clIzR3Jhal9QRFN4SC1sV2xXRy1IMWxCTVJFWm9RZ1RUSTk3d1V3NmlTM0ZBVE4teDFQamh1c3NrYWJYVG1SQi01QkhrUlh3YktMT0Z4S1dnekhEbGd5SWg0bldLSGM?oc=5" target="_blank">¿Cuáles son los riesgos del uso de la Inteligencia Artificial durante la adolescencia?</a>&nbsp;&nbsp;<font color="#6f6f6f">Cadena SER</font>

  • Navarra se defiende ante los riesgos de la IA con un comité de ética pionero - Noticias de NavarraNoticias de Navarra

    <a href="https://news.google.com/rss/articles/CBMipAFBVV95cUxNbTc2ZkYza3JrSEhRNkpzam5vd2hqS21MNV9fMk1aWk9JenhRc3NfNU1MTTBUUVQwYXlycjlKTDktQ2tRelZZYmxaUkZIdlhQOTZJWW1XRE1YLVNoRVdyWWlhdjlGeTU3OEN4TWpabkZxRmVvRmJraVFoWExuYVAtaFBFMnpXb1lnOFJpNkttT2F5SUhKQndyWEI1VUxSa1FpNkNqRNIBqgFBVV95cUxPcmFjWDBYd3ZaWUF0OVN6bWxsRVdXdk9KS1pxdWpHZ2huLW1sVWdoZFpsWTZILUsyS3hCV0R4MG1IQkhvN3ZlOEpDOFNzcXVZU0t6LTRkMnlxS2ZhQjdqdWNDNnR4YW1xblhWb2NRdTBKQmFpZ2lYbkVPLVZrbkotanVSTUZpMHNLNHFYVXhlZmJ3aHhGOGtVajhRTzVMNERHSVNmZFV6ZGd5Zw?oc=5" target="_blank">Navarra se defiende ante los riesgos de la IA con un comité de ética pionero</a>&nbsp;&nbsp;<font color="#6f6f6f">Noticias de Navarra</font>

  • Mapa regulatorio de la inteligencia artificial en Colombia - GarriguesGarrigues

    <a href="https://news.google.com/rss/articles/CBMikwFBVV95cUxNLVVkdk5lWExOcW9ybXBTME9aYy1CNW9SUzh1UlVJeFNYOGtKYmI4UjAtelhhakpQdVZDbEVNakFHOHVVMFNTS0VIMjV6MjJrNUd0VFZ6LTRSM0psT0NHcjRGUHR1OFlJeUdReHh1QjBjTDYzMUF5U0lIbGwtQWgwT2hQUzExbmxTNEc1ZHV0VHlCMjg?oc=5" target="_blank">Mapa regulatorio de la inteligencia artificial en Colombia</a>&nbsp;&nbsp;<font color="#6f6f6f">Garrigues</font>

  • Sora, la red social que solo deja subir vídeos creados con IA: así funciona y estos son sus riesgos - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMirwFBVV95cUxPajNuWTlnb253b1RwbGgxczFrRXZoOWhjaGJQdWdBZVNhSV9LWnltNlRpT215RlM4U2RNanNXQzJmUXVsQW1Zd3ZsOW01ZnMzZDV3dlVXN19iOXNGNDl6ajIxRFBGMEZlb2d4R2NwWkxkbHBzUFNxeV8xWmloM0hSa1Fmd1JkdzYyWDlEWG00SlpGTV9hd0RKRzhiQVRKQlJnWm93WTM1Y3FyQVNTYW440gGvAUFVX3lxTE5NVXkyLWpLVjhLeXpZTVFwdE5SVXZjWmVBMEtFMnl2ZXBBUldEclRkTUk0UTVESG5OV3FlNUZyMV8yWVRuZlJzeFVQMW5YR0RSMmxTbjA2TWhIaTVwZWU5ektnTzkxWHdySGZrY2pVcHhEQy1Hcmk3OVRKUWl3SkIzZm4teEo5d0JzYkZBMGRGdGhVWkdqWEpZRTFaTkcyTWRvU1pRaUlIQWtSdjI4c1U?oc=5" target="_blank">Sora, la red social que solo deja subir vídeos creados con IA: así funciona y estos son sus riesgos</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • Los humanos son el verdadero riesgo en la inteligencia artificial - Ecosistema StartupEcosistema Startup

    <a href="https://news.google.com/rss/articles/CBMinAFBVV95cUxNdExBaENGNXhodm9CSGN1dk9xMV94OXItNnpPa0JJMlBjeHRUZ1JwR0ctUXB6M3FFM2JRT19oY2hxVWhtd05HVmo3aFQ2bk5fOElQWnAtY3d0N3FEb2RYQ2stWHpTNGVLNUUyaGlyZUZCNjJnUXhObktUU0VYbG52akhNRGVqbkJRSWdNU0RWWTNVOUtvdHVrNGowSWo?oc=5" target="_blank">Los humanos son el verdadero riesgo en la inteligencia artificial</a>&nbsp;&nbsp;<font color="#6f6f6f">Ecosistema Startup</font>

  • Cuando la máquina decide por ti: los riesgos de la inteligencia artificial en la administración pública - Cronica NorteCronica Norte

    <a href="https://news.google.com/rss/articles/CBMi0wFBVV95cUxPM1E0M1BPV3d5VXJPYWNCVWw4aElzbGJUc1VJZ2dRbW5iTlJGNG9ybDVPRW1GWWZHdzhFaGFaWlB3cU1GY2lhdXE5VFB4STJfU0FrNW5PTERfQXpjV3RGd0lLZmxUWmxZZ3VJSkdYMUVHcHZWa0hydF9vMGpxeHN0QnM1WW44NFM2Tktfb1IzajFoZjg1VzctZkU4d2ZsVFhhVS13NlgybU1DT3IxVkpBOWZjbXhQRE5lNThVT19xNzY2ZURQRGYtdS1SZzEzbFZtbXZ3?oc=5" target="_blank">Cuando la máquina decide por ti: los riesgos de la inteligencia artificial en la administración pública</a>&nbsp;&nbsp;<font color="#6f6f6f">Cronica Norte</font>

  • Oportunidades y riesgos de la IA en la lucha contra violencia de género - El DerechoEl Derecho

    <a href="https://news.google.com/rss/articles/CBMimAFBVV95cUxOUFEwd0E4cDNrVnFoXzBrVjBlYXIwSWF2XzktYVR3LXh0WVJtUWFfUnh5ZVp3Zy1lcFNZUE14MmFELVRlWUNlRXZSeHZDQzdxaFA3cGJkMjZpb01FakhIZlNHckQwdmNUelRibE1XNy16YkY4R0Z1LWNQd3g3YVNOQjBpc1oxQUpCM25hcmNwNnBIMlBPQTcxMg?oc=5" target="_blank">Oportunidades y riesgos de la IA en la lucha contra violencia de género</a>&nbsp;&nbsp;<font color="#6f6f6f">El Derecho</font>

  • Sí, los adolescentes españoles son conscientes de los peligros de la IA y las redes sociales - EL PAÍSEL PAÍS

    <a href="https://news.google.com/rss/articles/CBMi1AFBVV95cUxNZnViZzIwdnBWSjJpVHExNVpIbTVRZU1LaTFVVDZqSXpES3p5TmQ4bGNxNDNDWi11azQxTkR6ZEZpNlN4VU5LLS1BSWZlbk1aRlhMaFFseUxpNjByWWFVYW40LTFzUG9TVEdNa1A2Qk9lc21JQzl5Q1ZaQXRVQVZPNjZ5b1VUMzBzTUg4aXQ4QlJtRW1DNG1Ob09Jd2d1eE1seDBqcDZWbXZLVzg5Qk93MEhiMmtoWV9Bb2J3TXh1MlVmWi14Z3dmaXdPNlJCNzlha05PUdIB6AFBVV95cUxNN1hyN2tRYXZHTzVDdFctcDZRdHBWX0JpRWhmUUItMW1ieDhzaDhNUW5xTGg1T2t5b2RueHI2QXdGU3J3YjRTSmZxM0R1c2NpbnpjQ0ZieTZDb0d1c2s4YVZnbExwWDBDR0JwUk1GUjU0VFQxcHFkTnBzXzM4UTdxR2V6clViR2N2cjNMRF9YaWpabmlEQXdiU2tFMFJtalpRNVBKOVMzOFV6dlRCOEdoX3JrakZIeWctUm9ZOUppcHdqN1NMNkdnTVlYVHlrWUllSFRZRnNsSEJtTlVTeUFpTGdHdHNlY3pw?oc=5" target="_blank">Sí, los adolescentes españoles son conscientes de los peligros de la IA y las redes sociales</a>&nbsp;&nbsp;<font color="#6f6f6f">EL PAÍS</font>

  • Innovación o riesgo: por qué la IA necesita reglas humanas - Escudo DigitalEscudo Digital

    <a href="https://news.google.com/rss/articles/CBMipgFBVV95cUxNbWdnQWZKdU80eENjX2IyMlV6YTMwQkloNUg5MXZqWWpjYkJxVndmaXpLVmYxR1J5eWJkZDJvVjJ3QlMxWF9TSlM4MlZHNGYwOWVBbjg0M1ZWUVpudHRjb1JrMDVNRXNKOGtWTmdkbVIxUThtaHl6X1N6RGtOT2dqVS1tTGNGb0FGX3dUNFRVdzBTbmFxTzFMdnl4N1RKVHVhR2I3ZE9n?oc=5" target="_blank">Innovación o riesgo: por qué la IA necesita reglas humanas</a>&nbsp;&nbsp;<font color="#6f6f6f">Escudo Digital</font>

  • Más de un centenar de científicos y dirigentes piden en la ONU “líneas rojas que eviten los riesgos inaceptables de la IA” - EL PAÍSEL PAÍS

    <a href="https://news.google.com/rss/articles/CBMi-gFBVV95cUxNNnJTWVZQZDRHc1ZORFZpMGFUOEI3ckVrNDE1Y044Q0doSGFNMVlmaXc2MFFzamI5NEVQU29ncmNhRUZPYlBZelRUT2w4X1JDdDVCdnlWdGRjZ2hUb1psWHltR3I4bHgyTnpvQW1GRVZfYTFPVEo0NmU4N1BzbDJ2bVJmSUFGYVNNa19NYlprcEZhZFJiZmdvTGpQVUYtRXU5MEw5VFZyOTFZeUtuYTRPclBXM042MlVsTVM4SHRUSlpNWW5jTWo4Vm9fRjFyUHpFTnJKRHVRdi10NUxFcDB0am5LeUdLSUJFckNQMXNxa0NORnozVV9yemFn0gGOAkFVX3lxTFBvVWM1ME9WTF82WGNvUTJFQkIzT0RyZUVnbHoyczkzaUUxUUZFYkVZaEVHM2NIakRPTGNtVGFrdDh2Wkc5R3QzTUpSaTl1UjRPcHY2dHlqQWpqVXFVVGtGNUNvclFOTHhQeDhULVU1NUZid1pVWF9nbnZfQVBlcnh4Qkw1TDhzQm5jSVY5b09pNmUxdnE1UlRPZjUxVDRSVGdlMkI5QkRtcmtjUWVuTDF0bFdGazRUMHp3ZG9lT3hoSGFZbHlxaW5LTU9MdHJ1c2t6bk5YYWduMDI3aU9jQnQxTklPU3NiR2QySV80dmRuRnRXWHZjWEVGOFpxZWN1QU5SOFZPMlJOdzhmTzFXUQ?oc=5" target="_blank">Más de un centenar de científicos y dirigentes piden en la ONU “líneas rojas que eviten los riesgos inaceptables de la IA”</a>&nbsp;&nbsp;<font color="#6f6f6f">EL PAÍS</font>

  • Una IA predice el riesgo de más de mil enfermedades con décadas de antelación - SincSinc

    <a href="https://news.google.com/rss/articles/CBMiswFBVV95cUxNYTlZRjhtdDZEdlVLc0R6NXFVZzBQRDdjMVJPbEdUTl9hQ0IyR0k2T05aYUdveFRQbFh1V1FxMFMwemNhQTVEUFEyeUZxVFFSSDROM1ZTOHRaNk51bVhBRVl4THFIN3ZzbUdXdTdGTTAxM3BOX05JcjlCTVlENFUyck9JRUFvYzRPOUVrSXFXUWxQLUFYSTZ4NGdiM3dSOW41MWhzN04tVlpvajktOVBmUkU5SQ?oc=5" target="_blank">Una IA predice el riesgo de más de mil enfermedades con décadas de antelación</a>&nbsp;&nbsp;<font color="#6f6f6f">Sinc</font>

  • La SGAE estudia los riesgos de la IA en la creación: buena para los conciertos y mala para la música de fondo - El Diario VascoEl Diario Vasco

    <a href="https://news.google.com/rss/articles/CBMihAJBVV95cUxPUm14NG1wX3E4OHZDbU9DOUJwNGRwZ1o2YlVHSEd1ZWVxTnRnQmgzMjJaWnA0YlZQS1pXSW16STAzQVdVNGtLdS1UUlNIY3BLaFp1RklMaHNyRXRjemNnZURTSzllMk1RcTkzREczSm1kSVBURUtOdGZhOVN5WVo1XzI3X21zWlZpd3NsM1hsSzRuZ2NuZnAzWDlQOU1WbHQzeXplMVdvdTB5bUVDZDUwVzA0M2hBNHJWQ1ppQ1VxcHQ3TmxHQ3hoM2tIQUxlYldiUmw3T21HM2dJN1pqbXNCTmIyYVVCaWdqTjhtanNTTFJ5RXkxZDRSNzl4Zmg1UG5BNHFQMtIBigJBVV95cUxOaDJsSEt1UGlHbUcybTZBNXhZcS15bDVCbXNGTlZTMlRRX2xwWUxLU3BBMGJIazlwZTVNM0UxZ1NHNUlUV1Y4SDBvMnctbE90WTlfUGptMzkzMHAzVGxTMkVUOXg3bmF4YW45NUJ5RUQzRDBrOEhWVWhJdGRaaHpNQzhrdXhHSXBlZzNzRGJ0MjVtVk5qNjVSMGlIb3hRZEQtTVpVN0V2SGxJMFhPbmxkcVhNby05UGhFVEpxendLc091MDhGa1JCNkQtZlNKcFhXZUZSQWozcFFzb0NldVg3bm9iLW55Um5CWHdBUEF5ODJRaDZzZWtoRWRlUHA4ZE1hakVCZmk3WnFWdw?oc=5" target="_blank">La SGAE estudia los riesgos de la IA en la creación: buena para los conciertos y mala para la música de fondo</a>&nbsp;&nbsp;<font color="#6f6f6f">El Diario Vasco</font>

  • Una de cada cuatro chicas de 17 a 21 años recurre a la IA como confidente para “contarle sus cosas” - EL PAÍSEL PAÍS

    <a href="https://news.google.com/rss/articles/CBMi0gFBVV95cUxPVnBnOFZOWmNaY0laMnEwdmtpaDlNa1hNSzVMckI4TllQVEdfVWJITkdhZ2Z6VFJEdXhBWmN0VW43RFVCZVVBTFB2QUtZXy1YMUhQLUtmWE0zSnRKSktNcDZuVW9sU1ZETXY2bmVlOElZa0ItTVhKc1R6WFFoanZ0UmVBYV9fVUc3UjBGbXJLaWZfRUMwNm5mbDh4NTB4YlppYTcyU3VNNWxyRllXd0tnaEhaOFhyWml2bmZocWo1U3pERTNTVUJKTEFiX1l4elRtVVHSAeYBQVVfeXFMT1d1a0J3elEwSE9hdkl3Nnp5ejJMT2F3SWRSeElicFczdXZsMHNTcmtPazZmckV0enlBYTZ1aXMzZHBqTEFGMlY3M3FVVEppd0lub2RkblFhX3JieEMxUFhiWTQ1eVdscVJfQld2NzBqR1hPcll6TXBoNC1TNkliVWoxUkNyWWRGMEtnd1RhRDdGREhOTElxLTFCMklDb0xkaktLNE5vaHJUcHhxeXZfRlYwdXBwS0lNai1KYUU1ZjJSWFBtRmhYQl8xczFRaGhnbFBNd1hQRE8wRnNWVFVXTDJJcXBHaGc?oc=5" target="_blank">Una de cada cuatro chicas de 17 a 21 años recurre a la IA como confidente para “contarle sus cosas”</a>&nbsp;&nbsp;<font color="#6f6f6f">EL PAÍS</font>

  • El "precariado de la IA": un riesgo global ignorado - The World Economic ForumThe World Economic Forum

    <a href="https://news.google.com/rss/articles/CBMikgFBVV95cUxOeHhzSnQ5RkthSS05QnRfdnVxVmViMFdQaVN2SklTeGlBbGZ6eHZ4WDhGZW52UUo0cDM5RFgyNDlfN29hekc1aXBGYlByeW9QbkpMZjBpbDMwNmoxSkhWSVNLMnhvQ1NFV1hCNXR6MDZXTDROUHdNZzA1VlpuTWxWMDl3VTJPTXRIa04xUFBhY3l3UQ?oc=5" target="_blank">El "precariado de la IA": un riesgo global ignorado</a>&nbsp;&nbsp;<font color="#6f6f6f">The World Economic Forum</font>

  • Meta y los riesgos de la IA: privacidad, datos y ciberseguridad - Computing BPSComputing BPS

    <a href="https://news.google.com/rss/articles/CBMihgFBVV95cUxQT3czM0lLQ3VvWVNuQ2VYNjA2QTY1dktVQ09ZYzFaa3puMFJTWWpSX3hxUTdZY3l6Nmp2VVNPNVRnN3VOSnQ0WGZIelVHeURXY2xUQlFjdGt0S0NZZDc0N08zN3FJcFUxclVYNWdnZHZCYzQxV1VJQnUyTHRFUjNLeVRZd2Q5UQ?oc=5" target="_blank">Meta y los riesgos de la IA: privacidad, datos y ciberseguridad</a>&nbsp;&nbsp;<font color="#6f6f6f">Computing BPS</font>

  • Los riesgos de la inteligencia artificial en tiempos de oligarquía tecnológica - EL PAÍSEL PAÍS

    <a href="https://news.google.com/rss/articles/CBMiwgFBVV95cUxPd0I2ZlhzZTZINU1raVNkdnJzOUlqemR4T3E2ZjRvZWdEYXVzNmxka0V5Tm92b1ZNck1DN0gxV21ueU40dnRwYzlHY29RT2otR3ZieTlpNjRVVy05dGpxWGtyNlFqUC1HY3p3ejNRU2ZwdnQ2M2tVUm0xSHlfS09jX2taSVhENGxlbzFoOTdNeXZla1F2TkhLTTJwNVRYS3ZfTFZMS2ZLOUlvX1BzclBTYkV6VDRNWk9yYm8zVFRadW5xd9IB1gFBVV95cUxOMWdodk9mTmFNRlV5dVVLTmVBNV96STdmWC15bTlleVVObEJrdGRIa0R5MHI5dkR6dlZxOGt4NkpLRFdmU1pFRjNPamtGSHRpUW1WR19pX3BidXE1bG93b1NpV1VVZlk1T2NOUGtKRHhEVk9QRk0tRk1nWFpkSjdGZkx0VkludkpnOTRraUlqNjhaYm15UWZYa3l3cTBzbHlQemdVMlVDRXU1SF9JYnNlYjROaXNWLWR6c041MHBMVzF2Zi05cnFraUIxNUh5RWRCSjVyTzB3?oc=5" target="_blank">Los riesgos de la inteligencia artificial en tiempos de oligarquía tecnológica</a>&nbsp;&nbsp;<font color="#6f6f6f">EL PAÍS</font>

  • Siete riesgos de la IA que podrían cambiar el mundo - Forbes EspañaForbes España

    <a href="https://news.google.com/rss/articles/CBMikgFBVV95cUxPbUNqUWJROEh2ZDg4amI0cTF5MkhQcmt1My1tNmhlRm1yVG5Yc0huM3E0UTlPdEtQc1U2aldNNkI4bzZwbEFQZkdON3UzR20wajcxOW9jUTlNYzBtbU8xWXJ3WVFzeEJpOERoOUxGdlQ5bExMZmFkNGtaVVVBS2FFTkZPMUVsaFJOZUdXRjZ6NkkzZw?oc=5" target="_blank">Siete riesgos de la IA que podrían cambiar el mundo</a>&nbsp;&nbsp;<font color="#6f6f6f">Forbes España</font>

  • ¿Quién controla a la inteligencia artificial en el sector público? ¿Qué riesgos tiene? - EL PAÍSEL PAÍS

    <a href="https://news.google.com/rss/articles/CBMiwgFBVV95cUxPNzh2WDhXRVdDcXFkcmFiY1lwMGdicG83UHdPSndVS01NTlF4dG5ZandIR3hrUnJDY3dkd3RxYzdpZ2t3SUdyRnYxNUFxRnprZHZKeU9XeXBIbGlEcFlfSHYzRUFYeVBvVzZFN2FUWlpDOHI1M0tmcEV2NFJPbmh2TTJfMXlwSU5JZjc0X2Y1dDZGelJJX3NGMHdDTTlCV2lKSlhYZm9IbjU3VU1qd2w4Yk9Mb200ZUNySVFPeHlsNGtOdw?oc=5" target="_blank">¿Quién controla a la inteligencia artificial en el sector público? ¿Qué riesgos tiene?</a>&nbsp;&nbsp;<font color="#6f6f6f">EL PAÍS</font>

  • Cedir les teves fotos a la IA: els perills invisibles i desconeguts - UOCUOC

    <a href="https://news.google.com/rss/articles/CBMimwFBVV95cUxPVWxSeTBjejFFTTRCdUpjT3lNSVZzRE5MT2hMZnBXb3MwempmTjVGQkVnV3pkUGdKb25ZNUI3YW5QQ0lSZ1B1bDIyeU5lOFBYNVhmS1VtZFByNVgwRi1LdDBYT3B3RzRITG9NNUhuTXRsMkN3RFRqNFdTLTc1RzlmUlAzOXkwa0RlRVJycVNkWHNLajFvZ2JQbm11WQ?oc=5" target="_blank">Cedir les teves fotos a la IA: els perills invisibles i desconeguts</a>&nbsp;&nbsp;<font color="#6f6f6f">UOC</font>

  • Evaluando el impacto de la IA en la gestión de riesgos de terceros - DeloitteDeloitte

    <a href="https://news.google.com/rss/articles/CBMinAFBVV95cUxPS3hudGlaU3FmUDEyNmFEYjFYdjlNWW1ubkhDamRUTWRfVEUzY1owbVRhMzRhbGVCOFJoYmJUSXdXckE4WFRBbUhlRkktOGYxcGVhT0Y5VFRyUzdfYUFUdEtBM0ZPTzA1MGV0MTh5czRaY1RNQTJ0TW53Q0wwcXhqUFNCLWQwUjRiakljQW5VOUhORlRxVEp6Q1ItTW8?oc=5" target="_blank">Evaluando el impacto de la IA en la gestión de riesgos de terceros</a>&nbsp;&nbsp;<font color="#6f6f6f">Deloitte</font>

  • Jornada Técnica: Día mundial de la SST. Revolución en el sector de la seguridad y la salud. El papel de la IA y la digitalización en el trabajo - INSSTINSST

    <a href="https://news.google.com/rss/articles/CBMieEFVX3lxTE8wMU1iWHU1UFNDQm9HRHhYd2NFVjJTb3hqeUxKbXZjLWY1Q1pHcWgxMGhsdEpCTGpQWWlGN1pCNzREMTlLUjUwSmF2SkdMQ09UWnlJcDAycU13el9nb25uZFRKcWVhWjdKNmdmRFQ1TnQ5MG1mTEFpaA?oc=5" target="_blank">Jornada Técnica: Día mundial de la SST. Revolución en el sector de la seguridad y la salud. El papel de la IA y la digitalización en el trabajo</a>&nbsp;&nbsp;<font color="#6f6f6f">INSST</font>

  • Beneficios y riesgos de la IA en la atención a la salud mental, según MHE - infocop.esinfocop.es

    <a href="https://news.google.com/rss/articles/CBMinAFBVV95cUxNTlFwbjdUVWZ1OW9iZUk5WWJRd0NqSzhvUHF2d3NZcVdWdWZsc01tOXRmUGVCYWtRMDFOMVVhUC1YY0lnVktRWmRGLXEzdmZDTmE2bDZ1TFhiSmtlZjNxbHhNeXZfT194UVB0QTlycy00U1FEazdDM1lxU3FiTWlObWFJMkxiQ0NuWVNYUzkxTVRIYXloWTM1NDU0Smw?oc=5" target="_blank">Beneficios y riesgos de la IA en la atención a la salud mental, según MHE</a>&nbsp;&nbsp;<font color="#6f6f6f">infocop.es</font>