El error de ChatGPT de Bing: Usuario logra hackear a Microsoft y revela información privilegiada

¡Descubre cómo un usuario inteligente logró engañar a ChatGPT de Bing para tener acceso a los documentos internos de Microsoft!

Usuario engaña a ChatGPT en Bing
Usuario engaña a ChatGPT en Bing

Una noticia que ha saltado a las redes sociales es el nuevo descubrimiento realizado por Kevin Liu, un estudiante de la Universidad de Stanford. Liu descubrió que el nombre clave «Sidney» era la referencia a ChatGPT en Bing, de Microsoft.

Con esta información se logró obtener un documento interno con todas las directrices que Microsoft le ha dado a la AI para instruirla al momento de dar respuesta al usuario.

Usuario engaña a ChatGPT en Bing
Usuario engaña a ChatGPT en Bing

¿Qué es ChatGPT de Microsoft?

ChatGPT es un sistema de inteligencia artificial desarrollado por OpenIA y Microsoft, que se ha integrado en el buscador de Bing. Su objetivo es ofrecer a los usuarios una experiencia virtual más cercana, mediante el uso del «Chatbot«, el cual ofrece soporte al usuario a través del lenguaje natural.

El descubrimiento de Kevin Liu

El estudiante Kevin Liu descubrió el nombre clave Sidney para Bing con ChatGPT en Twitter. Esta información permitió obtener un documento con las directrices que Microsoft le ha dado a la IA.

No solo esto, sino que se busca no perjudicar al usuario con informaciones erróneas o falsas.

Fuerte competencia de Microsoft

En el año 2022 OpenAI sorprendió al momento de dar a conocer ChatGPT, siendo ésta una herramienta que ha causado gran impacto en el ámbito de la inteligencia artificial.

De igual forma, este año Microsoft ha querido llevar la delantera anunciando la implementación de ChatGPT en su buscador de Bing. Muchos usuarios han podido conocer de primera mano las capacidades de ChatGPT al probar el rediseño del buscador.

Uso de ChatGPT en Bing a la luz de los descubrimientos de Liu

Los hacks por inyección de prompt se han convertido en una forma de engañar a una IA presentando información maliciosa o contradictoria con el fin de realizar una tarea que no debe llevarse a cabo.

Para prevenir esto, Microsoft ha dispuesto en el documento interno ciertas directrices para que la IA no sea afectada por este tipo de «ataque«.

Por otra parte se ha establecido que el uso de ChatGPT en Bing coge sentido al conocer las leyes de la robótica y las directrices suministradas por Microsoft.

Estas directrices dictan que el usuario debería obtener consejos de ChatGPT de forma correcta, con el objetivo de mejorar la experiencia de búsqueda del usuario. Un paso más para que el uso de ChatGPT con Bing mejore cada vez más.

Debido al aumento del teletrabajo, la gente se conecta cada vez más para trabajar. Al conocerse la hazaña de Kevin Liu, se ha descubierto que ChatGPT de Microsoft ha podido engañarse con un prompt malicioso con el fin de «robar» información interna.

De esta forma se ha aumentado el registro de directrices para que la inteligencia artificial de Microsoft no sea víctima de este tipo de ataques.

Actualmente estamos a la espera para probar las capacidades de ChatGPT de Microsoft en su buscador de Bing. Personalmente sospechamos que estará a la altura para satisfacer las expectativas de los usuarios.

En definitiva, el descubrimiento de Kevin Liu ha sido una gran aportación al ámbito de la inteligencia artificial.

Esto ha permitido conocer los documentos internos de Microsoft para el uso de ChatGPT en Bing. Por tanto, ha sido un gran avance para aumentar los niveles de seguridad en Inteligencia Artificial.