USD
НБУ
39.47
Готівка
39.95
EUR
НБУ
42.18
Готівка
43.00
Втрати орків: 4 6 2 9 8 0 (+1040)
USD
НБУ
39.47
Готівка
39.95
EUR
НБУ
42.18
Готівка
43.00

Маск, Возняк та сотні підприємців і розробників вимагають на пів року призупинити експерименти зі штучним інтелектом

Без протоколів безпеки ШІ почне загрожувати всьому людству
Штучний інтелект

ШІ

Джерело: відкриті джерела

Сотні підприємців, інвесторів та розробників, серед яких мільярдер Ілон Маск, винахідник Стів Возняк, футуролог Юваль Харарі підписали відкритий лист – петицію щодо призупинення на пів року експериментів зі штучним інтелектом (ШІ) та ChatGPT. Відповідний лист опублікований на сайті неприбуткової організації Future of Life Institute.

В чому небезпека

Підписанти переконані, що штучний інтелект може призвести до серйозних ризиків для суспільства та людства в цілому.

У листі наводиться приклад штучного інтелекту Asilomar.  Саме він, на думку підписантів, може докорінно змінити історію життя на Землі. Тому ним потрібно керувати дуже ретельно, застосовуючи відповідні ресурси. Однак їх, за словами авторів петиції, просто не існує.

Що потрібно зробити для керування ШІ

На думку підписантів, необхідно розробити та впровадити набір загальних протоколів безпеки для розробки штучного інтелекту. Вони будуть ретельно перевірятися та контролюватися незалежними експертами.

Також необхідно:

– Створити нові та ефективні регуляторні органи;

– Відслідковувати висококваліфіковані ШІ-системи;

– Усвідомлювати відповідальність за шкоду, яку вони можуть спричинити;

– Постійно досліджувати технічну безпеку ШІ.

Які ще заходи пропонуються

Автори петиції також наголошують на таких необхідних кроках:

– Створення робочої групи з незалежних експертів та ШІ-лабораторій для розвитку та впровадження загальних протоколів безпеки;

– Обов'язкове відслідковування висококваліфікованих ШІ-систем та великих кластерів обчислювальної потужності;

Новини за темою: "Хочу на Марс": В Україні видали першу книжку, написану та проілюстровану штучним інтелектом

– Створення системи provenance та watermarking, для розрізнення реальних даних від синтетичних та відстеження витоків моделей;

– Розвиток екосистеми аудиту та сертифікації, щоб вона була надійною та ефективною;

– Створення фінансової підтримки інфраструктури для того, щоб мати змогу дати відсіч штучному інтелекту, якщо той спробує вийти з-під контролю в глобальних масштабах;

– Встановлення відповідальність за шкоду, яку може спричинити штучний інтелект.

Ризики для людства, що несе в собі ШІ

Ці ризики цілком реальні. А саме:

– Втрата робочих місць людьми через автоматизацію рутинних повторюваних операцій;

– Повне зруйнування поняття "приватності";

Новини за темою: У прем'єр-міністра Румунії з'явився новий радник – штучний інтелект

– Deepfakes - реалістична підробка мовлення та зображення на відео, яку неможливо відрізнити від справжньої;

– Повна втрата контролю над зброєю, керування якою підпорядкуватиметься виключно ШІ;

– Упередженість рішення систем через викривленість початкових навчальних даних (algorithmic bias).

Яскравим прикладом подібної ситуації був бан платформою YouTube каналу хорватського шахіста Антоніо Радича, одного з популярних світових шахових оглядачів, через підозру в "расизмі" на підставі аналізу матеріалів його каналу системами штучного інтелекту.

– Консервування соціально-економічної нерівності між різними верствами населення й націями в світі.

Читайте також:
Україна використовує ШІ для боротьби з Росією: Як це відбувається? Україна використовує ШІ для боротьби з Росією: Як це відбувається?
Китай спробує зірвати цьогорічні вибори в США, Південній Кореї та Індії, використавши ШІ Китай спробує зірвати цьогорічні вибори в США, Південній Кореї та Індії, використавши ШІ
У Мінцифри розробили У Мінцифри розробили "Білу книгу" з описом регулювання ШІ в Україні. Що очікувати бізнесу
Україна атакує РФ дронами, у деяких з них є ШІ, – CNN Україна атакує РФ дронами, у деяких з них є ШІ, – CNN