- Художники и владельцы изображений теперь могут попросить OpenAI удалить их изображения из обучающих данных DALL-E.
- Однако этот процесс возлагает на создателей значительную нагрузку по извлечению собственных произведений.
- Один художник описал трудный процесс отказа как «приводящий в бешенство».
Впервые OpenAI позволяет художникам удалять свои работы из обучающих данных, используемых в DALL-E 3, последней версии генератора изображений на базе искусственного интеллекта. Процесс отказа от подписки настолько громоздкий, что создается впечатление, что он не работает.
OpenAI недавно представила Новая формула Какие владельцы и создатели изображений могут использовать для запроса удаления изображений, являющихся собственностью или защищенных авторским правом, из обучающих данных DALL-E.
Модели искусственного интеллекта должны быть высококачественными и созданными человеком. Данные обучения Чтобы хорошо выступить. Идет гонка за сбором всей этой информации. Но первоначальные создатели этого контента теперь поняли, что ценность и интеллект, заложенные в их работу, поглощаются и обрабатываются ради чьей-то выгоды. Это заставляет крупные технологические компании предлагать создателям способы либо активно принять решение об участии, либо извлечь свои данные из этого грандиозного эксперимента с искусственным интеллектом.
один за другим
Чтобы запрос на отказ был рассмотрен в рамках нового процесса OpenAI, художник, владелец или правообладатель должен предоставить индивидуальную копию каждого изображения, которое он хочет удалить из набора обучающих данных DALL-E, вместе с описанием.
Для большинства художников это может означать сотни или тысячи работ, которые необходимо подавать по одной. Например, Музею Джорджии О’Киф, как правообладателю работ этого художника, необходимо будет подать индивидуальные запросы на каждое из более чем 2000 произведений О’Киф, которые будут рассмотрены на предмет удаления из набора данных DALL-E.
В OpenAI полно очень умных технологов. Компания могла бы внедрить процесс, при котором художник или владелец мог бы подать единый запрос на удаление всех своих работ из обучающих данных. Но компания этого не сделала. Почему? Возможно, потому, что для построения моделей ИИ требуется как можно больше данных.
«Безумный»
Тоби Бартлетт, художник из одноименной консалтинговой фирмы, написал на Threads, что процесс отказа OpenAI от DALL-E «приводит в бешенство».
«Теперь художникам придется почти уничтожить свои работы водяными знаками эпических размеров в надежде, что их работы не будут использованы… даже если они сработают!» добавил он.
Грег Мэдер, ИТ-консультант, также написал на Threads, что недавно увлекся фотографией и хочет поделиться своими фотографиями в Интернете. Сейчас это вызывает сомнения, учитывая степень, в которой онлайн-контент очищается и используется для обучения моделей искусственного интеллекта, таких как DALL-E и ChatGPT.
«Где онлайн-публикации теперь безопасны?» Спросил.
Слишком поздно
Даже если OpenAI удовлетворит запрос исполнителя или владельца об отказе, это будет применяться только к «будущим» данным обучения DALL-E. Только что выпущенная версия 3 уже будет использовать изображение, которое человек просит удалить из своих обучающих данных. Или, как выразился OpenAI, его модель «обучается на обучающих данных» и сможет «сохранять изученные концепции».
Перевод: Вот процесс отказа от подписки, но уже слишком поздно, потому что мы уже израсходовали большую часть прибыли от вашего бизнеса.
Многие вопросы, связанные с использованием произведений, защищенных авторским правом, для обучения ИИ, являются частью процесса разработки правил в Бюро авторских прав США, включая отказ от участия.
«Мы слышали от художников и владельцев творческого контента, что они не всегда хотят, чтобы их контент использовался для обучения, поэтому мы предлагаем им возможность отказаться от своих изображений для будущего обучения моделей», — сказал представитель OpenAI. .
Вариант файла robots.txt
Тем, у кого большой объем работы или «большое количество изображений с определенных URL-адресов», компания предлагает заблокировать веб-сканер OpenAI, GTTBot, с помощью Публикация файла robots.txt. В прошлом месяце OpenAI заявила, что будет уважать проверенный десятилетиями метод оповещения веб-сайтов о том, что они не хотят, чтобы их данные были удалены веб-сканером.
Проблема в том, что художнику или владельцу, публикующему файл robots.txt, нужно не только знать о каждом веб-сайте, на котором размещены его изображения, но и получить доступ к кодовым базам этих веб-сайтов, чтобы добавить файл robots.txt, который может заблокировать GTBot.
Без этого доступа художник или владелец, скорее всего, вообще не сможет удалить свои работы из обучающих данных DALL-E.
Вы технический сотрудник или кто-то еще, у кого есть свое видение? Свяжитесь с Кали Хейс по адресу [email protected] в нашем приложении для безопасного обмена сообщениями. Сигнал по телефону 949-280-0267 или в Директ Твиттера @hayskali. Общайтесь с помощью нерабочего устройства.
Смотрите сейчас: Популярные видео от Insider Inc.
скачать…
«Чрезвычайный решатель проблем. Ниндзя для путешествий. Типичный веб-наркоман. Проводник. Писатель. Читатель. Неизлечимый организатор».
More Stories
Сложный подъем для велосипедистов
AirPods Pro в списке «лучших изобретений» показывает, что Apple по-прежнему впечатляет
Apple включает неожиданные улучшения функций в свой MacBook Pro начального уровня