Как известно, в машинном обучении вывод Y зависит от фидбека, то есть предыдущих входов X, и от текущего X. Но не делает ли это его уязвимым? Что если заддосить входы ИИ, и, тем самым, настроить его извне? Например, выпускается новый сервер капчи («Выберите фото гидранта»), направляем на него DDOS атаку, выбирающую фото котеек, и ломаем ИИ. Интересно и обратное, предусмотрена ли защита от подобного?
Ответ на:
комментарий
от futurama
Ответ на:
комментарий
от Jameson
Ответ на:
комментарий
от ox55ff
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.
Похожие темы
- Форум изобретён искуственный интеллект (2003)
- Форум Вот Ваш... Искуственный интеллект (2005)
- Форум по поводу искуственного интеллекта (2007)
- Форум Искуственный интеллект на Linux :-) (2002)
- Форум Искуственный рак (2019)
- Форум Искуственные лаги (2001)
- Форум искуственные алмазы (2007)
- Форум Free Software Foundation вступает в консорциум по безопасности «искуственного интеллекта» (2024)
- Форум взлом? (2005)
- Форум Взлом (2003)