Itsitio

¿Es posible instalar memorias falsas en ChatGPT para robar datos de los usuarios?

Informações:

Sinopsis

En este episodio de Cybertalks, Gustavo Aldegani analiza una preocupante vulnerabilidad en modelos de lenguaje como ChatGPT: la posibilidad de insertar memorias falsas que comprometan datos sensibles de los usuarios. Desde cómo funcionan estos ataques hasta las respuestas parciales de las empresas tecnológicas y las mejores prácticas para mitigar riesgos, exploramos el impacto de estas amenazas en la seguridad de la inteligencia artificial generativa.