LINUX.ORG.RU
ФорумTalks

Нейросети и копиразм

 ,


1

1

Насколько мне известно о том, как работают нейросети (у меня даже диплом есть)), нейросети нужно обучать. Скармливать им примеры входных данных и ожидаемый результат.

Так вот, можно ли считать конент, произведённый нейросетью, производной работой от тех материалов, которые были использованы для обучения нейросети?


Да, а точнее — нужно. </thread>

t184256 ★★★★★
()
Последнее исправление: t184256 (всего исправлений: 1)

В наших судах прецедентов вроде не было, поправьте , если не так. А вот в штатах суд решил что нет, это не производная работа

cobold ★★★★★
()

Так вот, можно ли считать конент, произведённый нейросетью, производной работой от тех материалов, которые были использованы для обучения нейросети?

По дефолту такие штуки не решаются. Будут рассматривать отдельно каждый случай претензий и каждый отдельно взятый контент

vaddd ★☆
()
Ответ на: комментарий от cobold

А вот в штатах суд решил что нет, это не производная работа

OSM требует, чтобы модели, обученные на их данных, были опубликованы под ODL. Думаешь, можно забить болт?

Pwner
()

Хуцпа «держателей платформы» требует чтоб права на контент принадлежали им, если ты не подписался на коммерческий план. Но т.к. в случае обучающих выборок они вряд ли были столь щепетильны — можно смело игнорировать эту их хотелку. Некоторые из них понимают, что в случае исходного контента предоставленного тобой, перспектива доказательств что ихний матричный бредофильтр вдохновлялся исключительно святым духом через либастрал юридически крайне сомнительна и «не препятствуют самостоятельному воспроизведению контента», т.е. если, условно говоря, пересвести музон на студии звукозаписи с живыми музыкантами, «их полномочия всё».

slackwarrior ★★★★★
()

зависит от того, чья нейросеть и чья исходная работа. Если нейросеть от Майкрософта, а работа - проект гномика с гитхаба, то не считается производной. Если нейросеть разработал ты (т.е. Васян, типа перплексити.аи), а обучал на работах крупных издателей и владельцев контента (например, новостных ресурсов), то считается производной.

bender ★★★★★
()
Ответ на: комментарий от slackwarrior

Да, но есть понятие правоприменительной практики

cobold ★★★★★
()

можно ли считать конент, произведённый нейросетью, производной работой от тех материалов, которые были использованы для обучения нейросети?

животные серят, червячки это кушают и тоже серят, деревья это потребляют и производят яблочки
получается так, что любой говнодел может заявить права на все овощи и фрукты
и иметь с этого доход

olelookoe ★★★
()

Если доказано участие нейросети - считается. Задача пользователя нейросетки - сделать так, чтобы и подозрений не возникло

DumLemming ★★
()

Ну ты повторяешь чьи-то чужие слова, принимаешь взгляды. Попробуй в текстах классиков поискать одинаковые речевые обороты, повторения сюжета и биографии героев. Те же Звездные Войны — это пародия на Дюну Фрэнка Герберта с анохронизмом типа рыцарей и принцесс, и даже действие в первой части происходит на планете пустыне… Ответ очевиден, но очевидно так же то, что нейронка это паразит, неспособная придумывать что-то новое, а люди несмотря на их примитивность мышления, могут словить шизу или высрать под наркотическим трипом что-то новое… Это просто справочник, который знает не более чем знают пользователи stackoverflow и reddit, а там, стоит отметить, далеко не самая умная публика

rtxtxtrx
()

Отметившиеся в топике как обычно ничего не читают, но все высказывают какие-то свои странные убеждения. Почему бы не ознакомиться, например, с принятым в EU Artificial Intelligence Act, который начнет потихоньку вступать в действие с 1 агуста 2024?

https://en.wikipedia.org/wiki/Artificial_Intelligence_Act

vaddd ★☆
()
Ответ на: комментарий от vaddd

Закон кал.

Пункты про нейронные сети высокого риска, про социальный рейтинг и отслеживание в реальном времени — такое действительно нуждается в некой регуляции.

Дальше идёт какая-то ересь, особенно по части «transperency requirements» в части даже самых обычных генерилок текста.

Одно из объяснений в интернете:

Accountability in AI means ensuring AI systems are held responsible for their actions and decisions. With machine learning (ML), AI should learn from its mistakes and improve over time, while businesses should take suitable corrective actions to prevent similar errors in the future.

Say an AI chatbot mistakenly recommends an item that’s out of stock. The customer attempts to purchase the product because they believe it’s available, but they are later informed that the item is temporarily out of stock, leading to frustration.

Ну не умеют LLMки обучаться на своих ошибках в реальном времени, да и не должны.

Пусть лучше учат пользователей не быть тупыми и иногда проверять информацию.

witaway
()
Ответ на: комментарий от witaway

Закон кал.

предложите лучше

Дальше идёт какая-то ересь, особенно по части «transperency requirements» в части даже самых обычных генерилок текста.

То есть прочитать, разобрать и осмыслить поленились

Ну не умеют LLMки обучаться на своих ошибках в реальном времени, да и не должны.

О чем вы вообще? Этот закон предъявляет требования не к ЛЛМкам,а к их владельцам и разработчикам в первую очередь. Они должны раскрывать максимум информации о механизмах работы и источниках обучения для предупреждения профессиональных пользователей. Как именно это будет происходить - будет устаканиваться еще очень долго.

vaddd ★☆
()
Ответ на: комментарий от vaddd

Действительно. Информацию об источниках обучения предоставлять желательно.

Мне просто не нравится формулировки о том, что AI может нести какие-то риски. Такое ощущение, что евро комиссия поддалась истерии.

High-risk – AI applications that are expected to pose significant threats to health, safety, or the fundamental rights of persons. Notably, AI systems used in health, education, recruitment, critical infrastructure management, law enforcement or justice. They are subject to quality, transparency, human oversight and safety obligations…

Limited risk – AI systems in this category have transparency obligations, ensuring users are informed that they are interacting with an AI system and allowing them to make informed choices. This category includes, for example, AI applications that make it possible to generate or manipulate images, sound, or videos (like deepfakes).

Очевидно, они несут риски только в случае, если конечный пользователь или потребитель контента идиот. А таких защищать не нужно.

Нейросеть довела до суицида — сам виноват. Нейросеть предложила опасное лечение и ты прислушался — сам виноват. Увидел дип фейк и поверил в реальность происходящего — ты просто невероятно туп и должен научиться на ошибках.

По указанной выше причине, вижу смысл в регуляции только «Unacceptable risk» приложений. Всё остальное — дурь.

P.s. конечно, плашка «вы работаете с AI» и где-то в подвале информация об источниках обучения нужна. Чтобы люди тупили сколько угодно, но совсем нагло обмануты не были.

witaway
()
Последнее исправление: witaway (всего исправлений: 1)
Ответ на: комментарий от witaway

Мне просто не нравится формулировки о том, что AI может нести какие-то риски.

А какие риски может нести AI, он неодушевленный ) Риски несут разработчики, выпускающие свой продукт «в народ» и профессиональные пользователи, зарабатывающие на нем деньги.

Примерно как автомобиль - это опасный продукт и он должен соответствовать куче требований, прежде чем его выпустят на дорогу

Нейросеть довела до суицида — сам виноват. Нейросеть предложила опасное лечение и ты прислушался — сам виноват. Увидел дип фейк и поверил в реальность происходящего — ты просто невероятно туп и должен научиться на ошибках.

Скорее всего будет куча предупреждений, галочек об ознакомлении, а самые опасные рецепты/советы будут как-то убирать в зародыше

vaddd ★☆
()
Ответ на: комментарий от vaddd

В этот момент я просто обязан признать, что по теме несу в основном тупняк и, кажется, в ближайшее время не исправлюсь )

ИИ, я полагаю, может нести риски в качестве инструмента. Ровно так, как вы и описали.

Но корректно ли считать, что это настолько опасный инструмент? Я не знаю. Всё зависит исключительно от конечного пользователя. Так-то и кухонным ножиком можно отрубить хрен.

Нужно ли регулирование? Какое-то минимальное, наверное, да. Меня всего-лишь беспокоят тенденции. Эти модели и без регулирующих законов достаточно глупые. И если политики слишком скатятся в подыгрывание истерии и популизм, можно совсем додавить.

Мне кажется, хватает предупреждения о том, что пользователь работает с ИИ и галочка о полном отказе об ответственности.

Модели уже давно начали обижаться, бросать трубку, играть со мной в политкорректность и вместо прямого, возможно, вредного, ответа, писать отписки и отговорки, раз за разом предупреждая, что «она большая языковая модель работающая на компьютере и не может давать квалифицированные советы». И в целом оно раньше было чуть-чуть умнее.

Хотел бы я посмотреть на бездумное лицо того пользователя, который это не понимает.

Возможно, нужно ограничивать не продукты, а повышать информирование и уровень образования?

witaway
()
Ответ на: комментарий от witaway

Но корректно ли считать, что это настолько опасный инструмент?

Там по ссылке, если вы видели, ИИ разделен на 4 группы по степени опасности. К первой относятся вские там инструменты слежки, распознавания лиц и тд. Чуть подальше средства, с помощью которых легко нарушить авторские и патентные права. То есть решили отделить простые болталки от того, что может использоваться в «немирных» целях. Остальное вроде как несет немало рисков, в том числе криминальных.

Хотел бы я посмотреть на бездумное лицо того пользователя, который это не понимает.

Для кого-то же пишут предупреждения на кофестаканах «осторожно, не переворачивать, может вылиться» )

vaddd ★☆
()

Между нейросетями и копирайтом есть потенциально невидимая связь
Я имею ввиду возможности нейросетей в плане анализа текстов
Я думаю, не за горами момент, когда копирастический маразм вырастет до вселенских масштабов
Крупные корпорации в погоне за прибылью начнут копирастическую войну, которая будет заключаться в том, что любой начинающий автор при попытке опубликовать свое произведение неизбежно будет сталкиваться с большими проблемами
Если вы вдруг будете оригинальны и вдруг ваше произведение станет бестселлером, вы тут же попадете на крючок, который будет заключаться в том, что ваш труд подвергнется перекрестному анализу нейросетей и вы неизбежно окажетесь перед фактом, что ваш роман или повесть окажутся вторичными, или того более - вы напрямую заимствуете свои идеи и сюжеты из уже существующих книг
И вы либо будете вынуждены делать отчисления куда надо, либо потратитесь на суды в попытке доказать обратное
Я вижу, что творческая свобода в будущем окажется под вопросом

kto_tama ★★★★★
()
Последнее исправление: kto_tama (всего исправлений: 1)
Ответ на: комментарий от kto_tama

и вы неизбежно окажетесь перед фактом, что ваш роман или повесть окажутся вторичными, или того более - вы напрямую заимствуете свои идеи и сюжеты из уже существующих книг

В общем-то авторское право не запрещает заимствовать идеи и сюжеты из существующих книг. До тех пор пока это не становится уже похоже на переработку книги. Есть вообще теория (Букера), что в литературе существует всего 7 основных базовых сюжетов и вся литература построена на их сочетаниях (в чистом виде какой-то сюжет сейчас встречается нечасто).

praseodim ★★★★★
()
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)