Искусственный интеллект, подобный ChatGPT, может усугубить антисемитизм в США, считает большинство американцев - «Технологии»
Фото: cand.com.vn
Согласно опросу, проведенному Антидиффамационной лигой (ADL), результаты которого были обнародованы 15 мая, три четверти американцев считают, что генеративный искусственный интеллект (GAI) можно использовать для разжигания антисемитизма в Соединенных Штатах, пишет журналистка «The Jerusalem Post» Даниэль Грейман-Кеннард. Данные, полученные из ответов 1007 взрослых американцев, были представлены на слушаниях в Сенате США по поводу GAI.
Проблемы, связанные с генеративным искусственным интеллектом
Согласно опросу, 75% американцев глубоко обеспокоены тем, что GAI может «неправомерно использоваться» для разжигания ненависти и оскорблений. Кроме того, 75% респондентов считают, что GAI может создавать предвзятый контент. «Если мы чему-то научились из других новых технологий, мы должны защититься от потенциального риска чрезвычайного вреда от генеративного ИИ, пока не стало слишком поздно», — заявил генеральный директор ADL Джонатан Гринблатт. «Мы присоединяемся к большинству американцев и глубоко обеспокоены тем, что эти платформы могут усугубить и без того высокий уровень антисемитизма и ненависти в нашем обществе, а также риском того, что они будут использоваться не по назначению для распространения дезинформации и разжигания экстремизма».
Опрос показал, что 70% респондентов считают, что GAI будет способствовать усилению антисемитизма, экстремизма и ненависти в США. Кроме того, 75% считают, что инструменты будут создавать контент, предвзятый в отношении маргинализированных групп. «Нет никаких сомнений в том, что благодаря расширенному доступу к GAI возможны многие захватывающие технологические достижения», — рассказала вице-президент Центра технологий и общества ADL Яэль Эйзенштат. «Но этой технологией можно злоупотреблять для дальнейшего разжигания ненависти, оскорблений и экстремизма в Интернете. Поскольку законодатели и лидеры отрасли отдают приоритет инновациям, они также должны решать эти проблемы, чтобы предотвратить их неправомерное использование. Мы рассчитываем на сотрудничество с политиками, лидерами отрасли и исследователями, поскольку они устанавливают стандарты для GAI».
Почти 90% респондентов считают, что частные компании должны следить за тем, чтобы их инструменты GAI не создавали вредоносный контент. Это будет означать ограничение на экстремистские или антисемитские образы. Кроме того, 77% респондентов опасались, что GAI может быть использована для радикализации и вербовки новых экстремистов.
Что такое генеративный искусственный интеллект?
GAI — это инструмент, используемый для создания новых изображений, видео и аудио. Технология требует очень мало навыков для использования и поэтому доступна для масс. По данным «The Guardian», 96% дипфейков (синтезированных изображений, основанных на искусственном интеллекте) являются порнографическими. Во многих фальсифицированных материалах лица знаменитостей помещались на обнаженные тела порнозвезд. В то время как большинство дипфейков используется для порно, технология использовалась и в других криминальных проектах. По данным «The Guardian», венгерский банк был обманут и потерял 200000 фунтов стерлингов после того, как была использована подделка голоса генерального директора. Эта технология также использовалась для создания поддельных аккаунтов в социальных сетях с целью шпионажа.
Необходимость контролировать технологии
Генеральный директор OpenAI Сэм Альтман выступил на слушаниях в сенате США, призвав законодателей установить правила для ИИ. «Мы считаем, что регулирующее вмешательство со стороны правительств будет иметь решающее значение для снижения рисков, связанных со все более мощными моделями», — заявил Альтман, сообщает CNN. На слушаниях также выступил сенатор Ричард Блюменталь, который представил фейковую запись своего голоса, чтобы показать потенциальные риски технологии. Запись содержала речь, написанную ChatGPT, и GAI использовала его предыдущие речи для создания своего голоса. Блюменталь добавил, что дипфейк может привести к заявлениям, которые могли бы нанести ущерб.
Источник:
Лехаим