Где можно почитать исследования по счет использования ИИ для оптимизации сборки программ?
Есть ли какие-то фундаментальные труды в данной области?!
Есть ли какие-то фундаментальные труды в данной области?!
Интересует как, в техническом плане, была устроина сборка отдельного пакета, целого дистрибутива.
Раньше, когда еще не было столько виртулизации в ПО, различного рода абстракций и наслоений в архитектуре, а программисты пытались как можно лучше адаптировать код к производительности, такой подход, как оптимизация CFLAGS флагов сборки под конкретный процессор оправдывал себя и задавало соотвествующий выхлоп. А сейчас?! Хороших программистов стало крайне мало, количество различного рода микроархитектур стремится к бесконечности, а на задействующие ресурсы, при использование ПО на стороне пользователя - плевать, как снежный ком нарастает зависимость пакетов при сборки и тд. Стоит ли вообще этим заниматься?!
Перемещено hobbit из general
Допустим у меня есть ноутбук N летней давности, с архитектурой Z. Я очень люблю одну программу X, из-за специфических функций и банально из-за привычки. Есть желание максимально ее оптимизовать и выжить все доступные соки производительности, заточить функционал под себя и тд. Но, она с зависимостями собирается только на старых дистрибутивах Linux, которыебольше не поддерживаются, а из-за новых версий библиотек современные не подходят.
1)Путь выкачивать список зависимостей вручную, потом их собирать ./configure make и тд. Это слишком трудно и много конфликтов, отчасти безумие. 2)Пакетный менеджер - apt-get в debian, создает ад зависимостей, в source base Linux - можно собирать только свежий софт, там непрерывное обновление. происходит. 3)chroot - ?! 4)Использование диструбива N давности, когда версия программы X была актуальной - анархизм. Может что-то еще есть?!