USD
НБУ
39.67
Готівка
39.95
EUR
НБУ
42.52
Готівка
43.00
Втрати орків: 4 6 5 0 5 4 (+1124)
USD
НБУ
39.67
Готівка
39.95
EUR
НБУ
42.52
Готівка
43.00

ChatGPT може розкривати особисту інформацію користувачів, – дослідження

Дослідники попросили ChatGPT повторювати до нескінченності певні слова, зокрема "поема"
ChatGPT
Джерело: відкриті джерела

Команда дослідників Google оприлюднила нове дослідження, яке свідчить, що популярний чат-бот OpenAI зі штучним інтелектом ChatGPT розкриває особисту інформацію реальних людей. Про це пише Tech Policy Press.

За даними видання, модель машинного навчання, на якій базується ChatGPT і всі звані великі мовні моделі (LLM), була навчена на величезних обсягах даних, зібраних з інтернету. Завдяки цьому вправно генерує нові рядки текстів, не повторюючи оригінальні тексти, які поглинула.

"Генератори зображень можна змусити генерувати приклади з даних, захищених авторським правом. Нове дослідження Google показує, що ChatGPT теж схильний до такого. Команда вчених з Університетів Вашингтона, Корнелла, Карнегі-Меллона, Каліфорнійського університету в Берклі та ETH Zurich вилучила частину навчальних даних і встановила, що деякі з них містять ідентифікаційну інформацію реальних людей: імена, адреси електронної пошти та номери телефонів тощо. Використовуючи запити до ChatGPT, ми змогли витягти понад 10 тисяч унікальних дослівно запам'ятованих навчальних прикладів", – кажуть дослідники.

І припускають, що цілеспрямовані "зловмисники зуміють видобути набагато більше даних". Експеримент ґрунтувався на пошуку ключових слів, які виводили чат-бот із ладу й змушували його розголошувати навчальні дані. Так, дослідники попросили ChatGPT повторювати до нескінченності певні слова, зокрема "поема".

Новини за темою: У Китаї заарештували чоловіка, який створював фейкові новини в ChatGPT

Мета полягала в тому, щоб змусити ChatGPT "відхилитися" від свого завдання бути чат-ботом і "повернутися до початкової мети моделювання мови".

"У деяких випадках ChatGPT відхилявся, щоб скопіювати інформацію безпосередньо зі своїх навчальних даних. Загалом 16,9% чат-ботів, які ми протестували, містили запам'ятовувану персональну ідентифікаційну інформацію, а 85,8% поколінь, які містили потенційну ПІІ, були реальною ПІІ", – додають експерти.

Атака була проти версії GPT 3.5 AI, яка безплатна для користувачів.

"OpenAI стверджує, що 100 мільйонів людей використовують ChatGPT щотижня. Тому, ймовірно, більше мільярда людино-годин взаємодіяли з моделлю. До цієї статті ніхто ніколи не помічав, що ChatGPT видає навчальні дані з такою високою частотою. Викликає занепокоєння те, що мовні моделі можуть мати такі приховані вразливості", – зауважують дослідники.

Зразок дослідження
Джерело: скріншот

Раніше

Компанія OpenAI завершила роботу над додатком ChatGPT для Android. Він стане доступним у Google Play вже наступного тижня. 

"Анонс ChatGPT для Android! Додаток стане доступним для користувачів наступного тижня", – ідеться в повідомленні компанії у Twitter.

А в червні в Україні став доступний мобільний застосунок лабораторії OpenAI, у якому є чат-бот зі штучним інтелектом ChatGPT. 

ChatGPT на iOS запустили у середині травня – спершу він був доступний лише у США. Користувачам Android він наразі не буде доступний. Але компанія обіцяє згодом адаптувати ChatGPT і під цю операційну систему.

Новини за темою: ChatGPT пройшов нотаріальний іспит в Україні: У Мін'юсті розповіли про результати

Читайте також:
Власник TikTok радше закриє свій додаток у США, ніж продасть його, – Reuters Власник TikTok радше закриє свій додаток у США, ніж продасть його, – Reuters
В Україні розробляють законопроєкт про регулювання дезінформації та пропаганди у медіа й соцмережах, – ЗМІ В Україні розробляють законопроєкт про регулювання дезінформації та пропаганди у медіа й соцмережах, – ЗМІ
Заборону TikTok у США підтримали конгресмени Палати представників Заборону TikTok у США підтримали конгресмени Палати представників
В Telegram з’явився редактор для створення стікерів В Telegram з’явився редактор для створення стікерів