DestacadosNotas MinerasNoticias
La inteligencia artificial puede comprometer la privacidad y la seguridad en línea
- Expertos revelan que la inteligencia artificial puede “inventar” información, referencias y hechos históricos y presentarlos como factuales a lo que se denomina “Alucinación de IA”.
El boom de la inteligencia artificial ha impactado fuertemente a la sociedad, trayendo beneficios y facilidades para la vida cotidiana de las personas y para las operaciones de las empresas. Entre estas nuevas tecnologías se encuentra ChatGPT, que es utilizada para una variedad de propósitos en diversos sectores, desde la creación de textos, historias y poemas, además de procesos judiciales y recomendaciones médicas.
ChatGPT también es capaz de proporcionar instrucciones detalladas, divididas y ordenadas en etapas lógicas sobre diversas áreas y actividades, lo que puede ayudar considerablemente a estudiantes, profesionales principiantes o incluso experimentados que deseen automatizar o agilizar actividades cotidianas, repetitivas o de cualquier otra naturaleza.
Esta herramienta basada en el modelo de lenguaje natural GPT-3 (Generative Pre-trained Transformer 3), de OpenAI, es un modelo de lenguaje de gran escala (LLM, por sus siglas en inglés), que funciona con información de datos textuales, para que así pueda generar respuestas coherentes o preguntas en lenguaje natural. Sin embargo, junto con los beneficios traídos por ChatGPT, también existen riesgos asociados a su manejo.
RIESGO DE PRIVACIDAD Y CONFIDENCIALIDAD
El método (no supervisado) y la cantidad de datos utilizados en el uso de este servicio pueden generar riesgos para la privacidad y confidencialidad de la información, ya que el modelo puede aprender a partir de datos que contengan información confidencial o sensible sobre personas y empresas. De esta manera, esta información puede ser usada para componer una respuesta de ChatGPT a cualquier pregunta donde ese contenido sea coherente.
Una persona malintencionada con poco o ningún conocimiento en programación, puede pedir a ChatGPT que escriba un script que explote una vulnerabilidad conocida. Otro usuario, con conocimientos aún más superficiales, puede solicitar una lista con opciones de posibles métodos de explotación de esa vulnerabilidad, mientras que un tercer individuo puede solicitar una lista de las vulnerabilidades conocidas de una aplicación, protocolo o tecnología en particular.
Según Ueric Melo, el Privacy Manager de Genetec, compañía con más de 25 años de experiencia en la transformación digital de los servicios de seguridad electrónica; se considera que “ChatGPT entiende el contexto de la conversación (la herramienta “recuerda” la información recibida y proporcionada en cualquier momento, dentro de un mismo chat) y crea una línea temporal con las situaciones hipotéticas anteriores. Se pueden imaginar el escenario donde una persona con conocimientos técnicos limitados, a partir de la pregunta ‘¿Cómo hackear [nombre de la aplicación]?’, podrá obtener una respuesta final.
NOTICIAS FALSAS (FAKE NEWS)
El servicio tiene la capacidad de producir historias convincentes, si se dispone de la información y el contexto adecuados, también permite la creación de creíbles “Fake News”, que pueden convertirse en “verdades” para quienes las reciben. Este es un riesgo bastante elevado, ya que los impactos de una noticia falsa pueden ser enormes.
“Las ‘Fake News’ pueden perjudicar la reputación de alguien, o incluso acabar con una marca o empresa, pueden influir en situaciones políticas e incluso causar daño físico o la muerte de personas”, comenta Melo.
Debido a uno de los objetivos de la herramienta, de entregar respuestas en un lenguaje natural (lo más cercano posible a una respuesta dada por un ser humano), la inteligencia artificial puede “inventar” información, referencias y hechos históricos y presentarlos como factuales a lo que se denomina “Alucinación de IA”.
Además, por los motivos dichos anteriormente, ChatGPT también puede presentar respuestas sesgadas, parciales, ofensivas e incluso agresivas, como ya ha ocurrido con otras herramientas basadas en IA.
“Esta nueva alternativa es una herramienta poderosa y prometedora que puede traer muchos beneficios para diversos sectores, el modelo no es 100 % confiable. Toda información generada por la aplicación debe ser evaluada, verificada, ajustada y validada por un ser humano”, sostiene el ejecutivo de la compañía experta en tecnología y ciberseguridad.
“El servicio está causando una revolución en el universo de la inteligencia artificial, principalmente por la democratización de este tipo de tecnología. Es fundamental que los desarrolladores y usuarios estén conscientes de los riesgos y que se implementen medidas adecuadas de protección para garantizar que los datos estén adecuadamente protegidos y que el servicio sea utilizado de manera ética y responsable”, concluye Ueric Melo.