Стал замечать, что на линуксе чертовски быстро заканчивается память. Cinnamon, Chromium с пятью вкладками и Pycharm - и уже система начинает тормозить. Никаких скайпов, торрентов и подобной мути не запущено. Винда на той же машине нормально работает с запущенным pycharm, двумя браузерами (хром и лиса, с десятком вкладок в каждом), торрентом и скайпом. Есть у меня подозрение, что что слишком большой кусок оперативки отъедает tmpfs в который смонтирован /tmp.
Есть ли смысл переносить /tmp на диск? (На машине 6Гб озу) Какие за и против? Есть ли какие-либо изкоробочные механизмы очистки /tmp перед|после ребутом?
Всем доброго времени суток.
У меня не так давно закончился оффтоп период в жизни, и я потихоньку возвращаюсь к онтопику и смотрю, что за это время поменялось. Вот был я неприятно удивлен, что flash видео на двухмониторной конфигурации разворачиваются на полный экран только на левом мониторе (не на главном, а именно на левом), а не на том, на котором находится окно браузера. Беглый гуглинг ничего полезного мне не сказал. Есть ли решения для этой бяки?
PS. Arch, intel
Всем доброго времени суток.
Итак моя беда. При запуске иксов (дм-а) в указанно tty фризиться экран, а если запуск при загрузке - то просто черный экран. Ноут с оптимусом (хотя мне нужна только дискретка, поэтому дрова только на неё)
Дрова проприетарные nvidia, nvidia-libGL.
xorg.conf (без него только софтварный рендер и половина ДЕ просто не работают)
Всем бобра!
Захотелось мне как-то на арче заменить используемую opengl реализацию от mesa, на оную от nvidia (все-таки пользуюсь проприетарными дровами, пусть уж все будет проприетарным, к тому же какая-то графическая софтина на libgl ругалась). В общем поставил я радостно nvidia-libgl, пакман мне радостно сказал, что пакет конфликтует с mesa-libgl, я не менее радостно сказал - заменить! Перезагружаюсь, дисплейный менеджер запускается, а вот все DE крашаться. Ошибки не смотрел, так как в панике вернул все обратно. Что я ещё забыл поставить при переходе на другую реализацию libgl? Все это время был установлен пакет mesa (не mesa-libgl !). 32-х битные версии библиотек также заменил.
Всем много ядер!
Вообще не уверен, что этот вопрос нужно писать в admin. А вопрос вообще довольно нетипичный. Есть один НИИ, у НИИ есть вычислительный кластер с кучей видеокарт. На кластере крутиться какой-то там линукс. Притом кластер не предназначен для какой-то высшей цели. Предполагается, что все отделы НИИ (коих кстати овердофига и занимаются они от ядреной физики до всякой биоинженирии) будут одновременно считать на этом кластере каждый свою тему. Те самому продвинутому из каждого отдела заводят учетку с правом лазить только по своему хомяку, а дальше крутись, как хочешь. Поставить нужный пакет? Обращайся к администрации, да-да, с письменным заявлением. Угадайте с трех раз, кто пользуется этим кластером? Правильно - никто. Ну и поскольку до руководства дошло, что что-то оно делает не так, решили собрать совещание с рук-лями отделов, на тему «что вам надо, чтоб вы начали пользоваться буржуинской чудо-машиной». Вот тут и начинается мой вопрос. От одного знакомого PhD, защитившегося в области hpc, я услышал, что в таких ситуациях на кластере разворачивают систему виртуализации. Для каждой команды заводят виртуальную машину, в которую тем или иным образом пробрасывают реальное железо (процы и видеокарты) и уже каждая команда настраивает виртуалку под себя. Как называется подобная архитектура? Возможно ли применение CUDA при таком подходе? Какой софт для такого используется? Есть ли примеры удачной реализации такого подхода?
Вот возьмём простую функцию numpy.sin. Если в качестве аргумента в неё передать array-like, то функция будет применена к каждому аргументу и на выходе будет numpy.array, если на вход передать скаляр, то на выходе будет скаляр. Как это внутри организовано? В моем дистрибутиве python в теле функции numpy.sin просто стоит pass. Как организовывать функции в питоне по вот такому принципу
Насколько дружны эти две штуки? Я вот тут попробовал cuda на ubuntu 14.04 (ставил deb пакет с сайта nvidia). Сама cuda вроде как завелась, но видеодрайвер, который шел вместе с ней оказался каким-то лютейшим УГ. Панель настроек nvidia практически не имеет настроек. При попытке переключения PRIME с Intel на Nvidia вылазит пустое окошко в котором должно быть сообщение об ошибке (сообщения нет), в консоль тоже пишется только ERROR и все. Лютый тиринг, фирменной утилиты для создания xorg.conf нет. Попытался создавать его руками, но при перезапуске иксов xorg.conf превращается в тыкву xorg.conf.<рандомные цифры>. Нет возможности конфигурирования двух мониторов, точнее так, по факту получается, что видеосистему я вообще конфигурировать никак не могу. Как я понимаю, вкорячить другой видеодрайвер я не могу, если хочу на видеокарточке матрицы умножать. Что со всем этим делать? В других дистрибутивах с драйвером из куды такой же треш, угар и содомия?
Меня интересует, где линкер ищет разделяемые либы. Особенно интересует, как обрабатывается директории внутри /usr/lib/, а то я тут давеча компилял примеры из cuda и у меня не собиралось до тех пор, пока я не добавил в LD_LIBRARY_PATH путь /usr/lib/nvidia-352/.
Я даже примерно не понимаю, что интерпретатор хочет до меня донести.
PS Код пока не привожу, тк он довольно здоровый. Ошибка возникает при счете градиента векторной функции. Есть вероятность, что я смогу понять в чем дело если мне просто пояснят осмысленный перевод сообщения об ошибке
Всем Андроид, посоны! У меня простенький вопрос. Вот лежит телефон, подключенный к зарядке. Батарея заряжена. Откуда он в этот момент берет мощность для работы? С батареи или из сети? Другими словами происходит ли цикл разряда/заряда? Истощается ли ресурс циклов батареи?
Всем доброго времени суток!
Поясните, что такое в правиле Armijo (https://en.wikipedia.org/wiki/Wolfe_conditions) направление спуска (search direction). В статье на вики оно обозначено р катое. Где-то я встречал намеки на то, что это градиент минимизируемой функции взятый с обратным знаком. Так ли это?
Всем бобра!
Вот живет на свете theano, а в ней живут theano.tensor-ы. И с ними можно делать вот такие штуки
y = T.ivector('y')
x = T.tensor3('z')
z=x+y
z.eval({x:[[[1,2],[2,3]],[[4,5],[5,6]]],y:[[[3,1],[5,2]],[[1,8],[4,8]]]})
Но вот вопрос. Если z задается каким-нибудь сложным и неочевидным способом? Как узнать количество и имена полей, размерность или тип ожидаемых данных, которые нужно передать на вход z.eval?
Всем доброго времени суток! Есть в theano такая штука как theano.function, а в ней есть поле updates, которое позволяет обновлять параметры созданной функции при каждом вызове. Так вот, есть ли способ посмотреть на результаты этих обновлений? Притом желательно в цифрах, а не в символах. Использую pycharm.
Все бобра!
Есть ли в python функция, которая решает задачу eigenvalue decomposition в общем виде, т е для двух матриц?
Aν = λBν
Numpy.linalg.eig(a) принимает на вход только один аргумент. Я конечно понимаю что можно в эту функцию засунуть B^(-1)*A, но тогда нужно будет заморачиваться по поводу обратимости матрицы B. Есть ли готовая функция, как в matlab/octave например?
Доброго времени суток!
Помогите разобраться с tensordot из numpy. Вот есть у меня два массива
А размерами (2х3х4) и В размерами (2х5).
c=numpy.tensordot(A,B,[0,0])
В результате получается тензор размерами (3х4х5).
Как видно алгоритм упаковывает матричные произведения
A[:,:,i].transpose() * В
вдоль оси Оу.Умножаются матрицы размерностью (3х2)*(2х5) Во первых, как именно выбирается первый аргумент этого произведения? А точнее другая ось (одну я указал в аргументах tensordot)? Почему не (4х2)*(2х5) например?
А во-вторых почему не (3х5х4)? Как выбирается ось, вдоль которой будут располагаться произведения отдельных двумерных матриц?
Есть ли вообще какое-нибудь формальное описание того, что делает tensordot в python?
Всем добра!
Есть массив данных AxBxC и массив меток 1xC. Как в питоне образовать train и test наборы? Я пробовал с помощью cross_validation.train_test_split из sklearn. Да вот незадача, функция, как я понял, для тех случаев, когда вектор признаков для одной метки- это вектор, а не матрица (АхВ), как у меня. Мне б что нибудь, что просто сгенерирует индексы (как в R и Matlab), а не сами массивы дробить будет.
Доброго времени суток всем!
Жили-были на моем ноуте две оси. Оффтоп и онтоп. Но оффтоп стал очень жирным и решил я его переустановить. Переставил, и естественно не увидел любимого grub меню при загрузке. Заглянул мельком в биос, в порядок загрузки, и О чудо, там есть запись grub. Поставил её на первое место. И при загрузке увидел вот это.
Welcome to grub
error:unknown file system
Entering rescue mode...
grub rescue>
Так как ноут с efi и под рукой нет загрузочной флешки, то очень не хочеться заниматься любовью с переустановкой grub. Есть ли возможность спасти его в нынешнем состоянии?
Всем доброго времени суток!
Давно столкнулся с проблемой, что огнелис не может загрузить coub. Уже на протяжении нескольких версий. В chromium такой проблемы нет.