Компанія OpenAI не афішуючи послабила обмеження на застосування своєї технології штучного інтелекту у військових цілях. Про це повідомив Business Insider.
У неоголошеному оновленні політики використання ChatGPT 10 січня компанія скасувала широку заборону на використання своєї технології для "військових справ".
Але служби OpenAI все ще заборонено використовувати для більш конкретних цілей, включно з розробкою зброї, пораненням інших або знищенням майна.
За даними видання, представник компанії заявив, що нова політика використання OpenAI тепер охоплює такі принципи, як "не заподіюй шкоди іншим", які є "широкими, але легко зрозумілими й актуальними в багатьох контекстах".
Деякі експерти зі штучного інтелекту стурбовані тим, що переписана політика OpenAI є надто узагальненою, особливо в умовах, коли технологія штучного інтелекту вже використовується під час конфлікту в Секторі Гази. Ізраїльські військові заявляли, що використовували ШІ для визначення цілей бомбардування.
Зміни політики OpenAI можуть відкрити двері для майбутніх контрактів із військовими, вважає Business Insider.
Представник компанії зазначив, що вже існують випадки використання ШІ з метою національної безпеки, які відповідають місії компанії. Наприклад, OpenAI співпрацює з Агентством передових оборонних дослідницьких проєктів США, "щоб стимулювати створення нових інструментів кібербезпеки".
Нагадаємо, раніше інженери додали ChatGPT до робота-собаки, і тепер він може говорити.