Сообщество стало на шаг ближе к победе над расизом - несколько дней назад в ALSA прилетел патч, заменяющий blacklist/whitelist на denylist/allowlist в драйвере ac97.
В vmaster API также заменили слово slave на follower - но непонятно, почему не изменили название на vmhost API, к примеру.
После обновления GCC до версии 10.1 и пересборки им питона (тоже обновление прилетело) я стал периодически ловить GPF при вызове emerge.
Да, процессор с памятью я разгонял, но не думаю что дело конкретно в этом - memtest86 после шестичасового прогона никаких ошибок не выдал, а стабильность разгона ЦП я давно проверил во всяких линпаках. К тому же, раньше-то такого не возникало.
Подскажите, в какую сторону копать, чтобы обнаружить причину этого бага.
Замечал ли кто-нибудь, что розничные магазины толкают подделку под топовые сптермопасты? Я про всякие Kryonaut, MX-4 и т.д.
Неделю назад померяться пыской с парнями - поставил винду на съемный хард, скачал Cinebench, запустил.
Примерно секунд через сорок компьютер вырубился - ну я подумал, что из-за низкого VDDCR CPU Voltage и накинул еще. ИЧСХ, отрубился еще быстрее. Стал смотреть температуру - было 90°C за пару секунд до отключения, видимо в защиту уходил.
Я подумал, да что за хрень - корпус продувается нормально, кулер тоже не днищенский. Да и паста - Termal Grizzly Kryonaut, ее даже der8auer советовал! Снимаю кулер и вижу, что паста превратилась в штукатурку и отваливается примерно так же. А ведь прошел только год.
Намазал GD900 за пять баксов, запустил пынябенч еще раз - 75°C был самый максимум и выше не поднималась.
Сабж. Разгонял память, IMC в моем Ryzen 7 2700 выше 3600 МГц прыгнуть не позволяет, да и для этого пришлось выставлять напряжение в 1.4В.
Погуглил даташиты на чипы, там сказано - 1.2 стандартное рабочее, 1.5 - максимальное.
Меня интересует, какой максимально безопасный предел для эксплуатации памяти 24/7 (на самом деле меньше). Понятное дело, полтора вольта это совсем пипец и приведет к скорой деградации чипов.
UPD: удалось даже до 1.39 скинуть, вроде memtest86 ошибок не выдает.
С авито связываться не хочу по всем известным причинам. По крайней мере, для тех, кто имел с этой площадкой дело.
Продам комплект на 16 гигов (две плашки по 8) - HyperX HX436C17PB3K2/16, он же Kingston HyperX Predator 3600C17.
На интеле без проблем работает с XMP профилем на 3600MHz и таймингами 17-18-18-32. Плашки из новой партии (2019 год), поэтому на Ryzen 1xxx/2xxx таких высот не достичь.
Имеются оригинальные коробки, могу поискать и чек - вдруг гарантия не закончилась, если кому-то важно. Покупал весной прошлого года.
Готов отдать за скромные 6000 рублей, в руки в Москве (Динамо) или с пересылкой по почте с накладным платежом.
Линукс тут при том, что эта память работала в компьютере под его управлением.
Наконец понял, что разработка - это не мое. Сначала были кранчи и бесконечные дедлайны в игровой индустрии, после я перешел в другую сферу, но потом столкнулся с российской криптой и мутными ГОСТами, которые не осилил.
Слышал о том, что многие админы переходят в разработчики, но что на счет обратного?
Хотелось бы узнать, чего сейчас хотят от линуксовых админов и сколько за эту работу платят.
На текущей работе часто имел дело с серверами, мелланоксовским железом и highload.
Good news, everyone! После выпуска интелом нового поколения электрокалориферов, цены на Ryzen 9 3900X несколько опустились, даже в этой стране. Цены на 3950X вроде не поменялись.
Думаю, в скором времени его можно будет за тридцатку килодеревянных купить, что для 12 ядерного десктопного процессора довольно круто - наконец-то, хромиум с либрофисом можно будет за приемлемое время пересобрать.
Фейк чи ни? Выглядит реально вкусно для виртуалок, контейнеров и сборки говнокода на плюсах. Да ещё и на видеокарте можно сэкономить или пробрасывать дискретную в виртуалку. Я бы взял на замену своего 2700, появись такая штука в продаже.
Для труЪ - видимокарта на чипе Kepler (нормально поддерживается в nouveau, в отличие от более новых), PCIe x1, 4 порта HDMI (как по мне, это минус - проприентарщина). Годный вариант для какого-нибудь HTPC или тех, кому нужно прокинуть основную видеокарту в QEMU.
Включил как обычно по утру свой компьютер и внезапно обнаружил, что иксы не стартуют.
Залогинился и стал искать причину, попробовал создать файл через touch... и получил «not enough space left» - да-да, у меня / и /home на одном разделе на 250 гиговом NVMe SSD.
Стал копать в сторону того, что же отожрало все свободное место... du показал, что виновник - это директория ~/.steam, но так как я все игры ставлю на отдельный диск, то я был очень сильно озадачен и стал копать дальше.
И бинго, это оказался файл ~/.steam/error.log, объемом в целых 236GB! Мгновенно затер его и сделал симлинк на /dev/null, ибо нех. Неужели гейбовские быдлокодеры не осилили ротацию логов?
После установки нового DLC играть стало интересно, но в лейте с огромным размером галактики, когда у всех есть мегаверфи и нехилых размеров флоты стали наблюдаться дикие тормоза и играть становится невозможно, хотя компьютер у меня не совсем уж днищенский (Ryzen 7 2700, 16GB RAM, Vega 64). Это проблема неоптимизированности самой игры или линуксового порта?
Наиграл больше 120 часов в свое время в локализованную версию Borderlands 2 и с удивлением обнаружил, что под линуксом доступна только глобальная версия в которой весь мой прогресс отсутствует и пришлось начинать все заново. Есть ли какая-то возможность перенести персонажей из локализованной виндовой версии в глобальную?
Достаточно ли этого для активации FreeSync в OpenGL и Vulkan приложениях? В инструкции от AMD предлагают делать это с помощью xrandr, но я думаю что эти способы эквивалентны. Также там говорится о необходимости активации V-Sync - есть ли способ сделать это глобально или нужно в каждой игре галочку в настройках тыкать?
Остановился на варианте 27 дюймового QHD 144 Гц монитора за $300, но естественно, за эту цену производитель предлагает только вариант с VA матрицей. Пока вживу не смотрел, просто заказал/забронировал.
До этого я пользовался мониторами с не самыми лучшими TN TFT (Acer G226HQL) и E-IPS (DELL U2415) матрицами - насколько в лучшую или худшую сторону от них будут отличаться VA? Про углы обзора я в курсе, меня больше интересует цветопередача и контрастность - на примере средней матрицы каждого вида.
Решил пощадить свои глаза и заменить старичка 21.5" Acer G226HQL на что-то более приличное - в итоге остановился на двух бюджетных моделях с нормальной IPS матрицей. Планирую использовать для работы (погромированье) а также темповых и не слишком игр под линуксом (Dota 2, WoW и квака через Wine, всякие портированные AAA). Итак, остановился вот на чем:
AOC 24G2U/BK - 23.8", дедовский FullHD, время отклика пикселя - 1 мс, есть FreeSync, частота обновления - 144 Гц.
AOC Q3279VWFD8 - 31.5", 2K, время отклика пикселя - 5 мс, заявлена поддержка FreeSync (но вроде неофициально), частота обновления - 75 Гц.
UPD, третий вариант:
Philips 245E1S - 23.8", 2K, время отклика пикселя 4 мс, есть FreeSync, частота обновления - 75 Гц.
HP Pavilion 27q - 27", 2K, PLS матрица, есть FreeSync, время отклика - 5 мс, частота обновления 75 Гц.
P.S. Если шо то говно, шо это - готов выслушать годную альтернативу, но из требований будут поддержка FreeSync, IPS матрица, частота обновления выше 60 Гц и цена не выше 20 тысяч вечнодеревянных.
Решил попробовать запилить стрим через OBS Studio, наслушался отзывов о кодировании на процессоре, но для начала решил записать пробное видео для оценки качества.
Выставил slow пресет для x264 и разрешение 1080p@60 fps, битрейт видео - 6000 kbps, максимум из того, что позволяет твич. И был крайне неприятно удивлен увиденным - куча артефактов и лютые тормоза местами. При этом top показывал нагрузку на процессор около 38%. С чем это может быть связано?
P.S.Как приеду домой, выложу видео.
Для сравнения - вот запись того же участка, но уже с использованием кодирования через VAAPI (VCE 4.0) с аналогичным разрешением и битрейтом. На мой взгляд - никаких артефактов, но в процессе записи турбина на видеокарте жутко шумела.
Процессор - Ryzen 7 2700 (разогнал до 4GHz, стресс-тесты вроде проходил), ОЗУ выше 3400MHz разогнать не вышло - тесты не проходило, только на такой частоте было все стабильно. Версию ffmpeg и x264 сейчас вспомнить не могу, обновлю тему когда домой приеду.
А собственно, какие сейчас есть или скоро появится видеокарты от AMD для непритязательного гейминга в 4K@60 на линуксе? Сейчас у меня Vega 64 от которой планирую отказаться по причине багов в драйвере и высокой температуры (у меня референсная версия) GPU. Radeon VII не рассматриваю по этой же причине. Сейчас у меня старенький 1080p монитор и проблем с частотой кадров не возникает, но поговаривают что для современных трипл-эй в 4K нужен целый титан - так ли это? Или это школьники-максималисты говорят, у которых если не ультра с лучами - то нещитово? Играю в основном в доту 2, WoW (после бана за вайн ушел на пиратку лича), линуксовые порты от ферала и виндовые AAA через DXVK.
Покупать 1080Ti не хочу, потому что дорогая (в магазинах до сих пор цены 2017 года и майнинг на дворе) и блоб нужен, да и 2080 тоже недалеко уехала.
Проперженного поляриса для 4K явно не хватит, с вегой тоже проблемы... А как сейчас с видеокартами на RDNA? Есть ли смысл купить 5700XT или подождать выхода 5900?
UPD: А что там с Radeon VII? Есть те же баги с ring gfx timeout?