‘Галлюцинирующий’ ChatGPT ошибочно утверждает, что профессор права подвергся сексуальному насилию над студенткой

ChatGPT, чат-бот с искусственным интеллектом, обученный OpenAI, ложно обвинил известного адвоката по уголовным делам и профессора права Джонатана Терли в сексуальных домогательствах.

Чат-бот составил статью для Washington Post о поездке на юридический факультет на Аляску, в которой Терли обвинили в сексуально провокационных заявлениях и попытке прикоснуться к студентке, хотя Терли никогда не был в такой поездке.

Репутация Терли серьезно пострадала после того, как эти оскорбительные заявления быстро стали вирусными в социальных сетях.

“Для меня это было неожиданностью, поскольку я никогда не ездил на Аляску со студентами, ”Пост» никогда не публиковала подобную статью, и меня никогда никто не обвинял в сексуальных домогательствах или нападении», — сказал он.Получив электронное письмо от коллеги-профессора права, который использовал ChatGPT для исследования случаев сексуальных домогательств со стороны преподавателей американских юридических школ, Терли узнал об обвинениях.

‘Галлюцинирующий’ ChatGPT ошибочно утверждает, что профессор права подвергся сексуальному насилию над студенткой
Профессор Джонтан Терли был ложно обвинен в сексуальных домогательствах компанией ChatGPT, работающей на базе искусственного интеллекта. Изображение: Getty Images

Необходимость осторожности при использовании данных, генерируемых искусственным интеллектомВ своем блоге профессор Университета Джорджа Вашингтона написал:

“Вчера президент Джо Байден заявил, что «еще предстоит выяснить», является ли искусственный интеллект ‘опасным’. Я бы позволил себе не согласиться…”Опасения по поводу надежности ChatGPT и вероятности будущих случаев, подобных тому, с которым столкнулся Терли, были высказаны в результате его опыта.

Чат-бот работает на базе Microsoft, которая, по словам компании, внедрила обновления для повышения точности.

Неужели у ЧатгПТА галлюцинации?Когда искусственный интеллект выдает результаты, которые являются неожиданными, неверными и не подтверждаются реальными доказательствами, говорят, что у него “галлюцинации”.

Эти галлюцинации могут быть результатом ложного контента, новостей или информации о людях, событиях или фактах. Случаи, подобные делу Терли, демонстрируют далеко идущие последствия распространения в СМИ и социальных сетях лжи, сгенерированной искусственным интеллектом.

Разработчики ChatGPT, OpenAI, осознали необходимость информирования общественности об ограничениях инструментов искусственного интеллекта и уменьшения вероятности возникновения у пользователей подобных галлюцинаций.

Мы ценим попытки компании сделать своего чат-бота более точным, но необходимо проделать дополнительную работу, чтобы подобное больше не повторилось.

Инцидент также привлек внимание к ценности этичного использования искусственного интеллекта и необходимости более глубокого понимания его ограничений.

Требуется надзор со стороны человекаХотя искусственный интеллект обладает потенциалом значительно улучшить многие аспекты нашей жизни, он все еще несовершенен и должен контролироваться людьми для обеспечения точности и надежности.

Поскольку искусственный интеллект становится все более интегрированным в нашу повседневную жизнь, крайне важно, чтобы мы проявляли осторожность и подотчетность при использовании таких технологий.

Встреча Терли с ChatGPT подчеркивает важность проявления осторожности при работе с несоответствиями и ошибками, генерируемыми искусственным интеллектом.

Очень важно, чтобы мы убедились, что эта технология используется этично и ответственно, с осознанием ее сильных и слабых сторон, поскольку она продолжает трансформировать нашу окружающую среду.

‘Галлюцинирующий’ ChatGPT ошибочно утверждает, что профессор права подвергся сексуальному насилию над студенткой

Между тем, по словам старшего директора Microsoft по коммуникациям Кэти Ашер, с тех пор компания предприняла шаги для обеспечения точности своей платформы.

Терли написал в ответ в своем блоге:

“Искусственный интеллект может опорочить вас, а эти корпорации просто пожмут плечами и скажут, что пытаются быть правдивыми”. Джейк Мур, глобальный советник ESET по кибербезопасности, предостерег пользователей ChatGPT от того, чтобы они не брались за все подряд, чтобы предотвратить вредоносное распространение дезинформации.

-Избранное изображение от Bizziziz

Поделитесь с друзьями