LINUX.ORG.RU

Ответ на: комментарий от Deleted

По твоему посту нет :)

Тогда если много сленга, решай дооценку весов предобученного эмбединга слов сленга. И выбирай-решай что из слов или выражений подлежит цензуре. На эту цель и учи 1D сверточную сеть (естественно добавив веса по частоте исходов).

В принципе на >300 примерах положительных уже должно начать как то работать и индексировать «по релевантности» тексты.

psv1967 ★★★★★
()
Ответ на: комментарий от Solace

Посмотрел тред немного: Можно, конечно, скатиться в unsupervised learning, как советовали выше по треду. Путь тёмный. Дороже, но лучше - оплатить разметку с помощью работников третьего мира.

воооот ))

так и приходим к тому что баловство это все.

Rastafarra ★★★★
()
Ответ на: комментарий от Rastafarra

Как будто индусы исключают ML. Индусы, как я понимаю, нужны для разметки обучающей выборки же.

з.ы. а вот какую модель натравить (ну все одни ИНС с word2vec-м эмбеддингом же) и на какие признаки - большой-большой вопрос, да :-)

alex4321
()
Последнее исправление: alex4321 (всего исправлений: 1)
Ответ на: комментарий от Rastafarra

Модератор всё равно размечает, почему бы и не собирать его труды для обучения?

psv1967 ★★★★★
()

С. Хайкин, «Нейронные сети: Полный курс»

Deathstalker ★★★★★
()
Ответ на: комментарий от Rastafarra

А что не так? В большинстве случаев мы просто упрощаем задачу.
Можно, конечно, говорить про Sentiment Neuron (мол, OpenAI тупо обучили сеть на огромном корпусе и получили хорошую абстракцию).
Но в большинстве случаев лучше как можно проще поставить задачу. А на бинарной классификации уже все просто. Хочет заказчик нейросеть - Glove + текст + 1D свёртка. И нечего голову забивать.

Solace ★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.