Компании ChatGPT И искусственного интеллекта должны компенсировать создателям Контента, говорит генеральный директор Media

Майкл Миллер, генеральный директор News Corp Australia, непреклонен в том, что ChatGPT и другие компании, занимающиеся искусственным интеллектом (ИИ), должны компенсировать создателям контента. Он объясняет, что развитие генеративного искусственного интеллекта — это просто еще один способ для цифровых компаний получать прибыль от творческой работы других, не компенсируя их и не приписывая им каких-либо заслуг.

Компании с искусственным интеллектом должны компенсировать создателямМиллер специально приводит ChatGPT, чат-бота с искусственным интеллектом, разработанного OpenAI и частично принадлежащего технологическому гиганту Microsoft, в качестве примера компании, которая создала бизнес стоимостью 30 миллиардов долларов, используя оригинальный контент и креатив других людей “без компенсации и указания авторства”.

 Чтение по теме: Американские бухгалтеры готовы инвестировать в Блокчейн, Инструменты искусственного интеллекта, такие как ChatGPT

Миллер сослался на австралийский кодекс ведения переговоров в средствах массовой информации, который фокусируется на компенсации за онлайн-контент, и он вступил в силу 2 марта 2021 года. Кодекс обязывал технологические платформы платить издателям новостей за их контент. Из-за этого положения он считает, что такой закон применим к платформам и проектам искусственного интеллекта.В качестве реакции на создание проектов искусственного интеллекта, таких как ChatGPT-4 и Midjourney, более 3000 технологических лидеров, включая Илона Маска, и исследователей недавно подписали открытое письмо, в котором призвали временно приостановить дальнейшее развитие искусственного интеллекта, сославшись на “серьезные риски для общества и человечества”. Выдержка из письма гласила: “возможно, будет важно получить независимую оценку, прежде чем приступать к обучению будущих систем”.

Миллер считает, что движки искусственного интеллекта сталкиваются с риском для своего будущего успеха, если они не смогут убедить общественность в том, что то, что они демонстрируют другим, получено с надежных платформ, включая основные средства массовой информации. Он утверждает, что они должны справедливо компенсировать тем, кто предоставляет вещество, которое затем подается в двигатели искусственного интеллекта. Важно отметить, что генеральный директор настаивает на том, что создатели заслуживают вознаграждения за свою оригинальную работу, которая играет важную роль в обучении ИИ.

Эти механизмы, добавляет он, “совершают набеги” на стиль и интонацию журналистов, музыкантов, авторов, поэтов, историков, художников, кинематографистов и фотографов.Чтение по теме: ChatGPT теперь может просматривать Интернет – Что это значит для криптографии

Криптоиндустрия также начинает видеть все больше сетей, использующих искусственный интеллект, с такими проектами, как Fetch.ai и СЕТЬ сингулярности являются популярными примерами. Их соответствующие монеты растут, опираясь на популярность искусственного интеллекта.извлечь.

FETCH.AI Price On April 3| Source: FETC.AI/USDT On Binance, TradingView
Цена на искусственный интеллект на 3 апреля| Источник: FETCH.AI/USDT На Binance, TradingView

Италия расследует дело ChatGPTТем временем итальянское агентство по защите данных временно заблокировало ChatGPT и начало расследование в связи с подозрениями в нарушении правил конфиденциальности данных.

OpenAI написал в Твиттере, информируя массы о взломе. Однако они связали нарушение с ошибкой, которая раскрывала историю чатов пользователей без их согласия.В понедельник мы отключили ChatGPT от сети, чтобы исправить ошибку в библиотеке с открытым исходным кодом, которая позволяла некоторым пользователям видеть заголовки из истории чатов других пользователей.

Наше расследование также показало, что 1,2% пользователей ChatGPT Plus, возможно, раскрыли личные данные другому пользователю. 1/2

— OpenAI (@OpenAI) 24 марта 2023

Итальянское агентство по защите данных Garante per la protezione dei dati personal (Надзиратель по защите персональных данных) также отметило отсутствие информации, предупреждающей пользователей о данных, собираемых OpenAI, и отсутствие “правовой основы, оправдывающей массовый сбор и хранение данных пользователей ИИ”.Изображение объекта из Canva, График из TradingView

Поделитесь с друзьями