Connect with us

Tecnología

Fallo en ChatGPT expuso dirección de correo y otra información de usuarios

Publicado

el

Fallo en ChatGPT
Compartir

ESET, compañía líder en detección proactiva de amenazas, analiza el fallo que permitió por un lapso que usuarios puedan ver preguntas del historial de búsqueda de otros usuarios de ChatGPT.

Además, se expuso información personal de un pequeño porcentaje de suscriptores al plan pago de este servicio, como nombre y apellido, dirección de correo asociada al pago, los últimos cuatro dígitos de la tarjeta de crédito y la fecha de expiración.

Todo comenzó el pasado 20 de marzo cuando usuarios a través de Twitter y Reddit comenzaron a reportar que en su historial preguntas aparecían consultas realizadas por otros usuarios.

En algunos casos en otros idiomas

Según confirmó OpenAI en un comunicado, todo esto provocó que se suspendiera el servicio de ChatGPT por un tiempo hasta que se corrigió el fallo y luego el servicio se
restableció.

Además del historial de consultas, algunas personas también reportaron que en la página de pagos para ChatGPT Plus aparecía la dirección de correo de otros usuarios:

En el caso de los datos de pago, según explicó OpenAI, el fallo afectó a 1.2 % de suscriptores activos a ChatGPT Plus y si bien la información expuesta incluía los últimos cuatro dígitos de las tarjetas de crédito, en ningún caso quedaron expuestos los números completos.

La compañía detrás de ChatGPT aseguró que se contactó con los usuarios afectados por la exposición de esta información y confía en que los datos personales de los usuarios ya no está en riesgo.

OpenAI confirmó que lo que provocó esta exposición de información fue un fallo que radicaba en el cliente de la librería de código abierto Redis, y que envió un parche al equipo de mantenimiento de Redis que ya corrigió el error.

Además del fallo que permitió la exposición de información, se reportó a OpenAI una vulnerabilidad que permitía realizar ataques de Web Cache Deception

Esta vulnerabilidad, que ya fue corregida, permitía robar cuentas de terceros, ver el historial de consultas y acceder a los datos de pago de las cuentas.

El equipo de investigación de ESET recientemente alertó sobre distintas estafas y engaños que han circulado aprovechando el éxito de ChatGPT.

Entre los ejemplos se destacó una falsa extensión para Google Chrome llamada “Quick access to Chat GPT” que los cibercriminales utilizaban para robar cuentas de Facebook, las cuales eran a su vez utilizadas para crear bots y desplegar publicidad maliciosa.

Sin embargo, esta no fue la única extensión maliciosa que aprovechó el nombre de ChatGPT, ya que investigadores de Guardio revelaron una nueva variante de la misma extensión maliciosa que roba cuentas de la red social.

En este caso se trata de una versión troyanizada de una extensión legítima llamada “ChatGPT for Google”.

“Como podemos ver, ChatGPT es atractiva para los actores maliciosas, ya sea para utilizar la herramienta con fines maliciosos, así como también para suplantar su identidad y engañar a personas desprevenidas”.

“Probablemente esta tendencia continuará y seguiremos viendo casos donde se intente
explotar vulnerabilidades o realizar fraudes en su nombre”, agrega Camilo Gutiérrez Amaya, jefe del Laboratorio de investigación de ESET Latinoamérica.

Para conocer más sobre seguridad informática ingrese al portal de noticias de ESET:https://www.welivesecurity.com/la-es/2023/03/27/fallo-chatgpt-expuso-direccion-correo-otra-informacion-usuarios/

Nota de prensa

No dejes de leer

Alcalde León Jurado celebró junto a feligreses sandieganos la Vigilia Pascual

Infórmate al instante, únete a nuestro canal de Telegram NoticiasACN    

Tecnología

Proyecto Astra, el asistente de IA con “habilidades humanas” de Google

Publicado

el

Proyecto Astra de Google IA, un asistente con habilidades humanas -Agencia Carabobeña de Noticias - Agencia ACN- Noticias Carabobo
Compartir

Google presentó el Proyecto Astra, un asistente de inteligencia artificial (IA) con “habilidades humanas” que le permiten ver, oír, recordar, asimilar y hablar. Una herramienta futurista que planean lanzar a finales de 2024.

El anuncio, lo realizó el gigante tecnológico este martes 14 de mayo.  Los usuarios podrán hacer una videollamada al asistente y preguntarle todo tipo de cuestiones.

Asistente creado con IA

Google mostró varios ejemplos -según la compañía, grabados en directo y no manipulados de ninguna manera– en los que una de sus trabajadoras en Londres preguntó al asistente qué apodo le pondría a una mascota, le pidió ayuda con programas de codificación y matemáticos, y también para encontrar sus gafas, tras mostrarle una habitación.

Otra cualidad que tienen estas tecnologías es que, puedes  interrumpielo durante sus respuestas para pasar al siguiente punto de la conversación. También  pueden tener distintas personalidades, aunque en ambos ejemplos se usó la voz de una mujer.

“Estos agentes se crearon sobre nuestro modelo Gemini y otros modelos de tareas específicas, y fueron diseñados para procesar información más rápido codificando continuamente cuadros de video, combinando la entrada de vídeo y voz en una línea de tiempo de eventos y almacenando en caché esta información para recuperarla de manera eficiente”, explica la empresa en un comunicado.

El “Proyecto Astra” de Google podría ser aún más portátil

Google se sacó un as de la manga sorprendiendo con la posibilidad de usar esta tecnología con unas gafas inteligentes, además de con un teléfono, aunque la compañía no hizo anuncios específicos al respecto.

En su último evento de desarrolladores, Meta también apuntó que está desarrollando sus gafas inteligentes para que puedan acceder a su IA y contestar a los usuarios preguntas sobre lo que ven.

Son muchas las tecnológicas que este año han apostado por herramientas con IA que interactúan con el usuario sin la necesidad de un teléfono u ordenador, como The Rabbit R1 o Humane AI Pin. No obstante  ninguno, de momento, ha conseguido un éxito rotundo.

Con información de BioBioChile

No dejes de leer: Un mundo más real que nunca en tu bolsillo

Infórmate al instante únete a nuestro canal de Telegram NoticiasACN 

Continue Reading

Suscríbete a nuestro boletín

Publicidad

Carabobo

Publicidad

Sucesos

Facebook

Publicidad

Lo más leído