LINUX.ORG.RU
ФорумTalks

GPTchat и копирайтинг

 


0

1

Заменят ли нейросетки копирайтеров? Или же как раз копирайтеры их будут использовать в своей работе? Нужны ли нам на лоре оригинальные с точки зрения поисковиков новости? Будем заставлять нейронки пересказывать опеннет своими словами? И многие другие вопросы, мальчишки и девчонки, также их родилели в этом ИТТ треде

СЛОВНО ...

★★
Ответ на: комментарий от Aceler

Аааа, ну это само собой. Я думал маштаб поменьше. Ещё хуже, доверять толпе непонятных человек, через чьи моральные фильтры проходит ответ от сетки до меня. И вообще называть ГПТ и подобные просто нейросетью бред там нейросетевых технологий в этой шайтан машине 10% от силы для обработки нечётких данных ввода и генерации текста/речи/кода. А сверху,посередине и внутри обычные БДшки и правила. Ну вот теперь ещё и толпы кенийцев в GPTтолоке

LINUX-ORG-RU ★★★★★
()
Ответ на: комментарий от LINUX-ORG-RU

A сверху,посередине и внутри обычные БДшки и правила

Это откуда такой…, такая информация? Структура сети открыта (см. например «Language Models are Unsupervised Multitask Learners» )

На входе как раз токенайзер, работающий по правилам. Посередине и внутри - нейросетевые трансформеры, на выходе нейронный слой, выдающий вероятности токенов.

red75prim ★★★
()
Ответ на: комментарий от red75prim

На правах фантазёра.

Без БД шек нельзя осуществить превинтивную фильтрацию выхлопа и вхлопа данных. Зачем напрягать сеть и сжигать тонны электричество по запросу «Как ипать лягушку» если можно просто нецензурное отфильтровать ещё до сети и дать отписку мол «Я на такие темы не общаюсь». Аналогичная ситуация с выхлопом, кенийцы делают вопрос=ответ, их проверяют, но не всё поток данных должен быть огромным, сеть жрёт ещё тюнят под нужное, бъют палкой за косяки замораживают состояние и потом пускают в работу, хорошо, вот ты и я написали сетку генерирующую текст, обучили, заготовили тясячи проверочных маркеров от кенийцев скормили сети и она нигде не зафакапилась, завтра у нас показ перед инвесторами, они будут ей говорить всё подряд с пристрастием и подковырками, твои и пои поджилки как думаешь будут на 142% уверены что сеть не выдаст не то что ерунду, а откровенный бред и ужас? Будут ли сомнения, конечно будут, предскакать поведение сетки большой на 100% нельзя. Фильты будут, хотя бы в виде другой сетки. Но матерные слова могут попасть в языковую модель, и просто так убрать уже мл ввжух и всё неполучится быстро, что делать? Слать в БДку запрос на фильтрацию слов что-бы вдруг сеть не отвечала пользователю мол ‘На ваш запрос урод я нашла три картинки чмо’ результат запросов будет сформировывать новые правила для коррекции сети. Без БД шек никуда, без тонны софта вокруг сеть жить не сможет, она сама ничего не делает, она лишь жрёт предподготовленные данные и выплёвывает результат и до и после нужна обработка. Магии что мол сеть всё сама нету.

Да и сеть там не одна, не может быть одна там их десятки если не сотни и всех их друг с другом нужно подружить. Так как сеть обучается постоянно, то постоянно идут и её факапы, которые надо фильтровать и получать данные для обучения для избежания факапов.

LINUX-ORG-RU ★★★★★
()
Ответ на: комментарий от alex1101

с Альцгеймером

В исходном посте ещё был союз «и», с букетом других заболеваний.

Suigintou ★★★★★
()
Ответ на: комментарий от LINUX-ORG-RU

Без БД шек нельзя осуществить превинтивную фильтрацию выхлопа и вхлопа данных

Хех. Приложение A в «Language Models are Unsupervised Multitask Learners». Да, они фильтровали данные из Common Crawl для улучшения их качества. Для этого они (сюрприз) натренировали нейросетку, чтобы отличать качественные данные от некачественных (Wikipedia и книги были использованы как пример качественных данных). Ну и ещё убрали повторяющиеся документы (да, для этой рутинной задачи вероятно использовали базу данных).

В общем, изучайте ТТХ, а не фантазируйте.

red75prim ★★★
()
Ответ на: комментарий от red75prim

а не фантазируйте.

Так скучно, во мне погибнет диванный онолитик =) Ладно, спасибо.

LINUX-ORG-RU ★★★★★
()
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)