GlobalSign Blog

Desinformación sobre IA: Preocupaciones y métodos de prevención

Desinformación sobre IA: Preocupaciones y métodos de prevención

La llegada de los sistemas de IA generativa respaldados por modelos de lenguaje de gran tamaño (LLM) fue una preocupación mundial en 2023, que circulaba con regularidad. Ahora que nos adentramos en 2024, es sólo cuestión de tiempo que la IA siga evolucionando y creciendo en sofisticación y disponibilidad.

La idea de que herramientas de código abierto pudieran generar rápidamente textos, imágenes, vídeos y grabaciones de audio convincentes con una precisión muy superior a la de los humanos fue, en un momento dado, la panacea. La continua prevalencia de la IA en el mercado ha suscitado una enorme preocupación entre los expertos acerca de su autenticidad y validez, por no mencionar el aumento de la ciberdelincuencia impulsada por la IA y la automatización.

Sin embargo, una de las preocupaciones más olvidadas es la propensión de la IA a inventar cosas, lo que tiene graves implicaciones para las organizaciones que intentan sobresalir en el espacio digital actual, altamente competitivo y escrutador. No solo eso, sino que el despliegue generalizado de soluciones de IA puede afectar a las políticas e infraestructuras internas de una empresa, por lo que existen preocupaciones internas y externas.

La IA tiende a falsificar la información

ChatGPT y otras herramientas mundialmente reconocidas como Bard, Bing Chat, Claude, Perplexity y otras, experimentan regularmente "alucinaciones". En términos sencillos, esto ocurre cuando la herramienta lingüística ofrece contenidos que no se basan en pruebas objetivas, sino más bien en conjeturas. A menudo se reduce a que la herramienta específica se limita a satisfacer la petición del usuario lo más fiel y rápidamente posible, ignorando por completo el contexto y la precisión de los hechos.

Sin embargo, persiste un problema subyacente. El uso constante de texto generado por IA, que no hará sino crecer en los próximos meses y años, corre el riesgo de propagar la desinformación y las noticias falsas. Se ha percibido que los creadores de los modernos LLM utilizan las alucinaciones de la IA como excusa para culpar a las herramientas de los resultados defectuosos o difamatorios, en lugar de asumir la responsabilidad de los propios resultados.

La principal conclusión de todo esto es que, dado que ya se ha permitido que esto prolifere hasta tal punto, no hace sino subrayar la necesidad de una mayor supervisión y vigilancia humanas sobre cualquier contenido generado por IA.

Aunque la IA promete numerosas ventajas, la ausencia de salvaguardias adecuadas, de una integración meditada y de una aplicación reflexionada y dirigida por el ser humano podría plantear problemas globales aún mayores. Las aplicaciones y herramientas de IA no supervisadas y los discursos mal informados podrían hacer más mal que bien, por lo que los líderes empresariales deben tomar medidas preventivas afirmativas antes de que se descontrole.

Comprender el potencial dañino de la IA

No se puede negar que las empresas pueden aprovechar eficazmente la IA como forma de mejorar la productividad y la eficiencia mediante el aumento de sus equipos. Sin embargo, es importante mirar más allá de los resultados de ahorro de costos y más tareas completadas y examinar metódicamente el contenido generado por la IA.

Derechos de autor y privacidad

Por ejemplo, las imágenes tomadas por una cámara real pueden reproducirse fielmente con la ayuda de herramientas de IA. Sin embargo, es prudente examinar si existen violaciones de los derechos de autor o de la privacidad, o sesgos que puedan utilizarse para perpetuar opiniones perjudiciales.

La generación no supervisada de imágenes mediante IA puede dar lugar a multas legales o reglamentarias si se descubre que el contenido infringe la obra de un creador original. En muchos sentidos, los profesionales del marketing y los narradores visuales de las empresas pueden evitar esto de forma rentable tomando imágenes originales con equipos usados de alta calidad y buena reputación, pero la mayoría de las empresas aún pueden beneficiarse del uso de generadores de imágenes de IA si comprenden los riesgos. No solo esto, sino que los deepfakes y la propaganda generada por ordenador siguen siendo controvertidos, por lo que las empresas deben abordar el uso de estas herramientas con cautela. 

En términos más generales, al integrar la IA en múltiples facetas de una organización se corre el riesgo de que los equipos se vuelvan complacientes, permitiendo así que más estafas de phishing "encubiertas" se cuelen por las proverbiales grietas. Por lo tanto, los datos no verificados y anómalos pueden desplazarse lateralmente por la infraestructura de una organización, planteando toda una serie de problemas de ciberseguridad.

Perpetuar información falsa

Los generadores de texto también pueden difundir información falsa que parece convincente por la forma en que está escrita. Las herramientas de IA carecen de la información contextual inherente para detectar si un texto es real o no, a diferencia del cerebro humano. Los modelos de IA se entrenan con los datos que han agregado, así como con las instrucciones que se les dan, y carecen de la intuición para discernir si el texto es dañino, tendencioso o ignora cualquier hecho, dato o prueba.

Por lo tanto, si los usuarios piden a las herramientas de IA que perpetúen textos "de apariencia humana" que refuercen estereotipos, opiniones anticuadas o prejuicios (inconscientes y conscientes), existe un mayor riesgo de que este contenido llegue a la opinión pública, sobre todo porque existe -en la actualidad- una alarmante falta de regulación independiente, aunque ésta se vislumbra en el horizonte.

Sin embargo, con una previsión y vigilancia minuciosas, las empresas responsables pueden sortear estos obstáculos con eficacia. Las siguientes prácticas y métodos de prevención pretenden fomentar la adopción beneficiosa de la tecnología de IA y promover su integración ética en la infraestructura existente.

Cómo integrar e implementar la IA de forma ética para evitar la propagación de la desinformación

Identificar y aislar las "noticias falsas" es un enorme reto en el moderno ecosistema digital actual. A nivel de empresa, corresponde a los líderes y a los responsables de marketing evitar que cualquier contenido original que les pertenezca (ya sea texto, imagen o vídeo) perpetúe cualquier estereotipo injusto o promueva ideales peligrosos o desinformados.
Al abordar la integración de cualquier herramienta basada en IA en sus sistemas y configuración actuales, es importante no dejarse cegar únicamente por las ventajas de ahorro de costos y tiempo que promete. Establece las siguientes reglas básicas antes de empezar a explorar la posibilidad de potenciar las operaciones con la ayuda de la IA y la automatización.

Fomento de la veracidad y la exactitud

Los generadores y consumidores de cualquier contenido (generado total o parcialmente por IA) deben tener cuidado y mantener cierto grado de responsabilidad sobre su veracidad y autenticidad.

Las empresas deben comprobar los hechos de cualquier texto antes de publicarlo para detectar cualquier anomalía o argumento expresado que pueda considerarse cuestionable. Supervisar y gestionar cualquier contenido antes, durante y después de su publicación, proporcionando contexto sobre las fuentes y descargos de responsabilidad para cualquier medio sintético generado para mantener la responsabilidad. Etiquetar adecuadamente cualquier contenido generado por IA para evitar que los consumidores se confundan o se insensibilicen ante sus narrativas.

Los contenidos de IA mal informados también pueden conllevar riesgos de ciberseguridad a largo plazo, especialmente si las herramientas de IA agregan y distribuyen datos sin ningún filtro para su sensibilidad. Por este motivo, las empresas deben supervisar y gestionar de forma coherente las herramientas de IA para garantizar que no se divulguen por error datos privados al público.

La información inventada, falsificada o exagerada generada por la IA acabará siendo más difícil de detectar, sobre todo a medida que las herramientas se vuelvan más sofisticadas. Las empresas tienen que desplegar medidas estrictas que verifiquen cualquier posible falsedad o narrativa falsa antes de que el contenido de la IA llegue a la opinión pública y fomente la proliferación de datos desinformados. Fomentar una cultura transparente que facilite la prevención cibernética metódica, en lugar de un enfoque basado en la reacción, resultará clave para mantener la integridad de los datos, así como la ciberseguridad.

Fundamentalmente, las organizaciones deben actuar con transparencia y revelar cualquier uso de modelos y sistemas generativos de IA para evitar ambigüedades. Con el tiempo, deberían supervisar y perfeccionar internamente cualquier sistema integrado con IA para comprobar que mantiene los niveles de calidad y precisión esperados.

Defensa de la privacidad y el consentimiento

Muchos líderes advierten de que la IA plantea importantes problemas de derechos humanos y tiene el potencial de alterar profundamente la vida de millones de personas. Aunque esto puede no ser evidente dado el panorama actual de la IA, y con las limitaciones ampliamente conocidas de la IA generativa, adoptar un enfoque que dé prioridad a las personas será crucial para las empresas que deseen aprovechar esta tecnología transformadora. Las empresas pueden ir un paso por delante de los actores maliciosos que ejecutan ciberataques con un enfoque multicapa de la seguridad mediante el despliegue de alertas en tiempo real, la supervisión constante de amenazas y soluciones de identificación de datos anómalos, que les informen proactivamente de cualquier actividad sospechosa.

Salvaguardar los derechos y libertades de los empleados, las partes interesadas y los consumidores debe seguir siendo siempre una prioridad. Esto se reducirá a que las organizaciones obtengan el consentimiento claro de todas las partes relevantes antes de generar imágenes o vídeos de personas identificables, anonimizando los datos y protegiendo las identidades siempre que sea posible. Las empresas -especialmente las de sectores muy regulados como el financiero y el sanitario- están sujetas a estrictas leyes y reglamentos de privacidad, por lo que deben abordar la integración de la IA con extrema cautela.

GlobalSign ayuda a las empresas de todos los sectores a obtener sus certificados de cumplimiento normativo necesarios. Con la ayuda de soluciones de certificados digitales PKI totalmente gestionadas y escalables, las empresas pueden obtener la plena tranquilidad de saber que, a medida que se automatizan partes de su organización, se mantendrá el cumplimiento normativo. Obtén más información sobre nuestros certificados digitales en nuestro Certificate Automation Manager.

Fomento de la diversidad y la representación

Cada vez hay más pruebas que sugieren que los sistemas de IA poseen de forma inherente sesgos inconscientes. A medida que se desarrollan nuevas herramientas y soluciones, las empresas deben supervisar y contrarrestar conscientemente cualquiera de estos sesgos para que no se materialicen.

Al consultar a los equipos para obtener asesoramiento y comentarios sobre la integración y las pruebas de IA, los directivos deben buscar perspectivas diversas y evaluar conscientemente cualquier contenido para evitar que se perpetúen prejuicios injustos o insensibles. 

Siempre es prudente considerar activamente cómo el contenido mal informado podría afectar bilateralmente a los grupos marginados y evitar que este discurso se promueva. Mantener la inclusividad debe aplicarse a cualquier contenido dirigido a los consumidores exactamente igual que a cualquier comunicación interna.

La adopción responsable de la tecnología de IA será una lucha constante para las empresas este año y los siguientes. Sin embargo, cuando se guían por valores éticos e inclusivos, las empresas pueden liberar un enorme potencial, evitando al mismo tiempo los problemas asociados a la desinformación y la proliferación de noticias falsas. 

Con cuidado, diligencia y compasión, las organizaciones que defienden los intereses de los seres humanos por encima de los objetivos finales de ahorro financiero pueden llevar a cabo innovaciones en este ámbito.


Nota: Este artículo del blog ha sido escrito por un colaborador invitado con el fin de ofrecer una mayor variedad de contenidos a nuestros lectores. Las opiniones expresadas en este artículo de autor invitado son exclusivamente las del colaborador y no reflejan necesariamente las de GlobalSign.

Share this Post

Últimos blogs