Виявилося, що вірусний TikToker, відомий як «Легенда про Буша», який видавався за аборигена, який ділиться фактами про місцеву фауну, повністю створений штучним інтелектом, що викликало дискусію про «цифрове чорне обличчя» та неконтрольоване використання штучного інтелекту для представлення культур корінних народів. Обліковий запис, активний у TikTok, Facebook та Instagram, використовує створені штучним інтелектом зображення чоловіків у традиційному одязі під музику, натхненну діджеріду, що вводить багатьох глядачів в оману, змушуючи їх повірити, що вони взаємодіють із справжнім вмістом аборигенів.
Ілюзія автентичності
Творець облікового запису чітко вказує в описі користувача, що контент створено ШІ, але цю деталь легко пропустити звичайні користувачі. Багато відео містять водяні знаки штучного інтелекту або підписи, які підтверджують їх синтетичну природу, але велика частина аудиторії не знає про це. Вигадана особистість отримала позитивні відгуки, дехто порівнював «енергію» ШІ зі Стівом Ірвіном. Однак цей захват спрямований на абсолютно штучний конструкт.
Відсутність відповідальності та поваги до культури
Це явище свідчить про зростаючу тенденцію: використання штучного інтелекту для імітації корінних народів, знань і культур без жодної відповідальності перед громадами. Хоча обліковий запис сам по собі не завдає прямої шкоди, він сприяє створенню середовища, де поряд з ним процвітають расистські коментарі, причому деякі користувачі вихваляють особу ШІ, водночас зневажаючи справжніх корінних народів. Творець із Нової Зеландії не має очевидного зв’язку з аборигенами чи мешканцями островів Торресової протоки, чиї зображення використовують.
Зневажлива відповідь творця — «Якщо тобі це не подобається, друже, просто прокрути далі» — не вирішує основних етичних проблем. Наполягання на використанні зображення, закодованого як аборигенне, для загальних історій про тварин піднімає питання про наміри та посилює проблему хижацького привласнення.
Культурна та інтелектуальна власність корінних народів під загрозою
Генеративний штучний інтелект створює нову загрозу для прав корінних народів на культурну та інтелектуальну власність (ICPR), виходячи за межі освіти та управління в нерегульований цифровий простір. Відсутність участі місцевого населення у створенні штучного інтелекту та екологічна вартість інфраструктури штучного інтелекту посилюють ці проблеми. Національна програма штучного інтелекту пропонує мало суттєвого регулювання, що робить самовизначення корінного населення вразливим.
Зростання AI “Blackface”
Легкість, з якою штучний інтелект тепер може створювати персонажів корінних народів, сприяє появі нової форми «чорного обличчя штучного інтелекту» — поверхневих, стереотипних уявлень, позбавлених культурної глибини. Ці фігури, створені штучним інтелектом, часто носять культурні прикраси або імітують охру, привласнюючи священні практики без розуміння чи поваги. Цей алгоритмічний колоніалізм увічнює цифрове насильство проти корінних народів, дозволяючи некорінним особам отримувати фінансову вигоду від вкрадених знань.
Що можна зробити?
Підвищення рівня штучного інтелекту та медіаграмотності має важливе значення для розрізнення справжнього та підробленого в Інтернеті. Підтримка автентичних творців корінного вмісту, таких як @Indigigrow, @littleredwrites або @meissa, є надзвичайно важливою. Перш ніж взаємодіяти з онлайн-контентом, запитайте себе: Чи створено цей штучний інтелект? Чи повинна моя служба підтримки бути тут?
Неконтрольоване використання штучного інтелекту для імітації культур корінних народів є небезпечною ескалацією цифрового присвоєння, підриваючи самовизначення та зміцнюючи шкідливі стереотипи. Критична участь і підтримка справжніх голосів корінного населення є життєво важливими для протидії цій тенденції.





























