LINUX.ORG.RU

История изменений

Исправление witaway, (текущая версия) :

Действительно. Информацию об источниках обучения предоставлять желательно.

Мне просто не нравится формулировки о том, что AI может нести какие-то риски. Такое ощущение, что евро комиссия поддалась истерии.

High-risk – AI applications that are expected to pose significant threats to health, safety, or the fundamental rights of persons. Notably, AI systems used in health, education, recruitment, critical infrastructure management, law enforcement or justice. They are subject to quality, transparency, human oversight and safety obligations…

Limited risk – AI systems in this category have transparency obligations, ensuring users are informed that they are interacting with an AI system and allowing them to make informed choices. This category includes, for example, AI applications that make it possible to generate or manipulate images, sound, or videos (like deepfakes).

Очевидно, они несут риски только в случае, если конечный пользователь или потребитель контента идиот. А таких защищать не нужно.

Нейросеть довела до суицида — сам виноват. Нейросеть предложила опасное лечение и ты прислушался — сам виноват. Увидел дип фейк и поверил в реальность происходящего — ты просто невероятно туп и должен научиться на ошибках.

По указанной выше причине, вижу смысл в регуляции только «Unacceptable risk» приложений. Всё остальное — дурь.

P.s. конечно, плашка «вы работаете с AI» и где-то в подвале информация об источниках обучения нужна. Чтобы люди тупили сколько угодно, но совсем нагло обмануты не были.

Исходная версия witaway, :

Действительно. Информацию об источниках обучения предоставлять желательно.

Мне просто не нравится формулировки о том, что AI может нести какие-то риски. Такое ощущение, что евро комиссия поддалась истерии.

High-risk – AI applications that are expected to pose significant threats to health, safety, or the fundamental rights of persons. Notably, AI systems used in health, education, recruitment, critical infrastructure management, law enforcement or justice. They are subject to quality, transparency, human oversight and safety obligations…

Limited risk – AI systems in this category have transparency obligations, ensuring users are informed that they are interacting with an AI system and allowing them to make informed choices. This category includes, for example, AI applications that make it possible to generate or manipulate images, sound, or videos (like deepfakes).

Очевидно, они несут риски только в случае, если конечный пользователь или потребитель контента идиот. А таких защищать не нужно.

Нейросеть довела до суицида — сам виноват. Нейросеть предложила опасное лечение и ты прислушался — сам виноват. Увидел дип фейк и поверил в реальность происходящего — ты просто невероятно туп и должен научиться на ошибках.

По указанной выше причине, вижу смысл в регуляции только «Unacceptable risk» приложений. Всё остальное — дурь.