ChatGPT, чат-бот с искусственным интеллектом, обученный OpenAI, ложно обвинил известного адвоката по уголовным делам и профессора права Джонатана Терли в сексуальных домогательствах.
Чат-бот составил статью для Washington Post о поездке на юридический факультет на Аляску, в которой Терли обвинили в сексуально провокационных заявлениях и попытке прикоснуться к студентке, хотя Терли никогда не был в такой поездке.
Репутация Терли серьезно пострадала после того, как эти оскорбительные заявления быстро стали вирусными в социальных сетях.
“Для меня это было неожиданностью, поскольку я никогда не ездил на Аляску со студентами, ”Пост» никогда не публиковала подобную статью, и меня никогда никто не обвинял в сексуальных домогательствах или нападении», — сказал он.Получив электронное письмо от коллеги-профессора права, который использовал ChatGPT для исследования случаев сексуальных домогательств со стороны преподавателей американских юридических школ, Терли узнал об обвинениях.


Профессор Джонтан Терли был ложно обвинен в сексуальных домогательствах компанией ChatGPT, работающей на базе искусственного интеллекта. Изображение: Getty Images
Необходимость осторожности при использовании данных, генерируемых искусственным интеллектомВ своем блоге профессор Университета Джорджа Вашингтона написал:
“Вчера президент Джо Байден заявил, что «еще предстоит выяснить», является ли искусственный интеллект ‘опасным’. Я бы позволил себе не согласиться…”Опасения по поводу надежности ChatGPT и вероятности будущих случаев, подобных тому, с которым столкнулся Терли, были высказаны в результате его опыта.
Чат-бот работает на базе Microsoft, которая, по словам компании, внедрила обновления для повышения точности.
Неужели у ЧатгПТА галлюцинации?Когда искусственный интеллект выдает результаты, которые являются неожиданными, неверными и не подтверждаются реальными доказательствами, говорят, что у него “галлюцинации”.
Эти галлюцинации могут быть результатом ложного контента, новостей или информации о людях, событиях или фактах. Случаи, подобные делу Терли, демонстрируют далеко идущие последствия распространения в СМИ и социальных сетях лжи, сгенерированной искусственным интеллектом.
Разработчики ChatGPT, OpenAI, осознали необходимость информирования общественности об ограничениях инструментов искусственного интеллекта и уменьшения вероятности возникновения у пользователей подобных галлюцинаций.
Мы ценим попытки компании сделать своего чат-бота более точным, но необходимо проделать дополнительную работу, чтобы подобное больше не повторилось.
Инцидент также привлек внимание к ценности этичного использования искусственного интеллекта и необходимости более глубокого понимания его ограничений.
Требуется надзор со стороны человекаХотя искусственный интеллект обладает потенциалом значительно улучшить многие аспекты нашей жизни, он все еще несовершенен и должен контролироваться людьми для обеспечения точности и надежности.
Поскольку искусственный интеллект становится все более интегрированным в нашу повседневную жизнь, крайне важно, чтобы мы проявляли осторожность и подотчетность при использовании таких технологий.
Встреча Терли с ChatGPT подчеркивает важность проявления осторожности при работе с несоответствиями и ошибками, генерируемыми искусственным интеллектом.
Очень важно, чтобы мы убедились, что эта технология используется этично и ответственно, с осознанием ее сильных и слабых сторон, поскольку она продолжает трансформировать нашу окружающую среду.
Между тем, по словам старшего директора Microsoft по коммуникациям Кэти Ашер, с тех пор компания предприняла шаги для обеспечения точности своей платформы.
Терли написал в ответ в своем блоге:
“Искусственный интеллект может опорочить вас, а эти корпорации просто пожмут плечами и скажут, что пытаются быть правдивыми”. Джейк Мур, глобальный советник ESET по кибербезопасности, предостерег пользователей ChatGPT от того, чтобы они не брались за все подряд, чтобы предотвратить вредоносное распространение дезинформации.
-Избранное изображение от Bizziziz