Вот так и дожили до времен, когда шедеврами признаются не картины художников написанные с использованием графического редактора, а выхлоп какой-то программы, на основе их работ.
CPU Rendering — This will take hours and hours, even up to 12h on older hardware. To match quality it'd take twice the time. Do multiple runs in parallel!
Что то долговато, вычислять будет, а я хотел поиграться.
Блин, питон. Люблю питон как язык, ненавижу питон как платформу. Пытаюсь установить эту приблуду, на бубунте не ставится, pip гадит какими-то ошибками. Что за привычка тащить вместе с программой отдельное окружение со всеми зависимостями.
У кого-то получилось сабж раскачегарить? У меня валится с ошибкой
Backtrace when the node is created(use Theano flag traceback.limit=N to make it longer):
File "doodle.py", line 488, in <module>
generator.run()
File "doodle.py", line 441, in run
self.model.setup(layers=['sem'+l for l in self.style_layers] + ['conv'+l for l in self.content_layers])
File "doodle.py", line 163, in setup
outputs = lasagne.layers.get_output([self.network[l] for l in layers], self.tensor_inputs)
File "/home/main/neural-doodle-master/pyvenv/lib/python3.4/site-packages/lasagne/layers/helper.py", line 191, in get_output
all_outputs[layer] = layer.get_output_for(layer_inputs, **kwargs)
File "/home/main/neural-doodle-master/pyvenv/lib/python3.4/site-packages/lasagne/layers/conv.py", line 257, in get_output_for
conved = self.convolve(input, **kwargs)
File "/home/main/neural-doodle-master/pyvenv/lib/python3.4/site-packages/lasagne/layers/conv.py", line 535, in convolve
filter_flip=self.flip_filters)
HINT: Use the Theano flag 'exception_verbosity=high' for a debugprint and storage map footprint of this apply node.
Ты думаешь, что всё ещё недостаточно стилей? Человечество наворотило столько мазни и аппликаций, что теперь можно уже профессию выдумать - ценитель. Хотя о чём я... Уже!И не первое столетие.
Теперь бы новую программу ценителя написать. Пусть одна творит, другая наслаждается. Людей на батарейки. Апогей цивилизации.
После обработки выглядит как творение безумного фаната фотошоповского клонштампа.
Ну это же нейросети. Это дальше такого рода дешёвых пейзажиков не прыгнет. Даже если качество поднимется выше примеров по ссылке. Вон, выше про бабу голую уже спросили, и это не вспоминая портрета или ещё чего сложнее.
Ну это же нейросети. Это дальше такого рода дешёвых пейзажиков не прыгнет. Даже если качество поднимется выше примеров по ссылке. Вон, выше про бабу голую уже спросили, и это не вспоминая портрета или ещё чего сложнее.
Это не совсем те нейросети. Convolutional NN же. Вот ещё примеры из PDF-ки.
Скоро по полям будут роботы от Boston Dynamics бегать с фоторужьями и постить в инстаграм фотографии с разными фильтрами. В инстаграме другие роботы будут использовать unsupervised learning для поиска новых стилей. Третьи роботы будут что-то пытаться нарисовать в пейнте, а четвертые по этим рисункам и фотографиям уже могут создавать уникальные произведения в новых стилях.
Я сделал ему запрос с просьбой добавить стандартную лицензию, если согласны со мной то вперёд по ссылке и ставьте лайки: https://github.com/alexjc/neural-doodle/issues/19 (Теперь на гитхабе так можно)
Не было бы, оно эффективно параллелится кудой и плохо ложится на малое количество потоков в CPU. Собственно, появится полноценный openacc в clang, будет эффективно работать на видюхах, генераторы из llvm IR в машинный код нвидиевских и амдшных универсальных процессоров уже есть. Потом на openacc переписать с параллельной разметкой куски numpy, которые сейчас используют куду. Потом ещё поковыряться с оптимизацией типичных для глубоких нейросетей операций и получить аналог cuDNN. Так 12 минут и получится.
А разве лицензия не должна иметь заголовка с её названием и версией? Сейчас я посмотрел и да, это BSD лицензия, но так я подумал что он написал её сам.