LINUX.ORG.RU
ФорумTalks

Ну и где же мои облачные технологии десу~~~

 ,


0

1

На дворе 2016 год, а у нас по прежнему ДИСКОВАЯ ОПЕРАЦИОННАЯ СИСТЕМА. Нет, вы понимаете, DOS вышел более 30 лет назад, в 1981 году, но прямо сейчас, вероятнее всего ты читаешь это сообщение используя всё ту же дисковую операционную систему, которая примечательна тем, что устанавливается на жёсткий диск! Совсем уже десу~~~

Облачные технологии! Где?

Меня бесит, когда система мигает светодиодом на корпусе, информируя об операциях чтения/записи с диска. И нет, отключить светодиод — не решение проблемы. Светодиод сообщает, что система что-то делает: но ЧТО система может делать, если в этот момент Я, пользователь, ничего делаю? А я отвечу вам что система делает, я отвечу... Она расходует ресурсы моих жестоких дисков десу~~~

Ваша система совершает множество не нужных операций записи на жёсткий диск. Информации, которая 95% пользователям (включая меня) никогда не понадобится, например, /var/log. Или ~/.mozilla. И многое другое. Умные гои таки догадываются вынести эту порнографию в tmpfs, но глобально проблема остаётся нерешённой, поскольку сами разработчики дистрибутивов этого ещё не сделали.

Почему современные системы не могут на стадии загрузки подключаться к сети (будь то облака в интернете или на локальном сервере), после чего загружать пользователю всегда актуальные версии пакетов, которые пользователь использует, затем устанавливать их на лету прямо в tmpfs и делать switch_chroot в новый корень. Почему? А я отвечу вам почему. Потому что производителям железа выгодно, чтобы гои расходовали ресурс жестоких дисков и несли шекели хозяевам железа десу~~~

Я считаю, что жёсткий диск должен использоваться только по своему прямому назначению: для хранения больших объёмов данных пользователя, но то, что современная операционная система работает с использованием жёсткого диска — это пережиток прошлого столетия, господа. Пакеты — отдельно, пользовательские данные — отдельно. Всё это — в облаках, о которых трындят уже который год. Но я не вижу этих облаков. Где же все мои облака?

Я считаю, что нужно вернуться к истокам UNIX, как это было в самом начале, когда тонкие клиенты, использующие минимальный набор софта в /bin, подключались к мейнфреймам и монтировали каталог с основными программами в /usr/bin. Так и работали. Только сделать это необходимо с оглядкой на современное обородувание. Современная операционная система должна быть тупо загрузчиком «с флешки». Иметь ядро, все необходимые драйвера, чтобы только загрузиться на железке, после чего уже подключиться к облакам и загрузить весь остальной необходимый пользователю набор софта. Облака могут быть чем угодно, хоть файлы в корне жёсткого диска. Локальная копия пакетов. Не суть важно.

Важно то, что дисковая операционная система — пережиток прошлого столетия. Современная операционная система должна «летать» внутри tmpfs.

Предлагаю наконец-то всё сделать правильно, сделать правильный дистрибутив, использующий облачные технологии для загрузки и сохранения данных. Желающие?

★★★★★

Там же где колонизация Марса — потребителю не нужно, поэтому никто не делает.

vurdalak ★★★★★
()

Важно то, что дисковая операционная система — пережиток прошлого столетия. Современная операционная система должна «летать» внутри tmpfs.

Кому и зачем она это должна?

kirk_johnson ★☆
()

Почему современные системы не могут на стадии загрузки подключаться к сети (будь то облака в интернете или на локальном сервере), после чего загружать пользователю всегда актуальные версии пакетов, которые пользователь использует, затем устанавливать их на лету прямо в tmpfs и делать switch_chroot в новый корень.

Зачем мне грузить систему с отдельного локального сервера (интернет сразу лесом, потому как ненадёжно и медленно), если у меня его как минимум нет?

Важно то, что дисковая операционная система — пережиток прошлого столетия. Современная операционная система должна «летать» внутри tmpfs.

Вот здесь согласен. Только пусть она, пожалуйста, грузится откуда мне удобнее, то есть, с жёсткого диска.

То, что программы гадят чем хотят, куда хотят (если не настроить какой-нибудь аппармор) и когда хотят, это действительно ужасно. Напрямую на жёсткий диск записывать можно только большие файлы, а мелкие можно и в оперативке держать, периодически сбрасывая на жёсткий диск или ещё куда. И отсюда рождаются всякие profile-sync-daemon'ы с anything-sync-daemon'ами, перенаправлялки с $HOME/.* на $HOME/.config2/* и прочие костыли. Ничего хорошего.

Многие программы (например, mpv, smplayer, chromium) в конфигах хранят всякую лабуду, вроде размеров и положений окон, последних открытых файлов, файлов расширений, cookies. Хотя этому явно место в $HOME/.cache, потому что $HOME/.config я хочу синхронизировать. Синхронизировать настройки, а не информацию, которой туда нагадили. Она должна быть либо в $HOME/.cache, либо в сети.

batekman ★★★
()

Да ты анраб, я посмотрю. Хотя, ты же спуфи, с тобой все понятно.

Sociopsih ★☆
()
Ответ на: комментарий от batekman

Я этим всем когда-то баловался

Для загрузки линукса в раму откуда угодно достаточно наличия двух файлов - bzImage и initramfs - и загрузчика, который может запустить первое со вторым в качестве параметра. Особо упоротые встраивают initramfs в ядро при компиляции, но суть от этого не меняется.

А теперь, внимание, вопрос: какая в ж. разница, откуда грузить эти два файла - с локального тормозного винта или с тормозного инета по iPXE?

border-radius
()

1) Жёсткие диски, да даже топовые SSD, дешевле, чем ОЗУ. Особенно если учесть, что запредельное количество ОЗУ умеют только достаточно дорогие материнки. А современные ОС и софт для них весят достаточно много, поэтому куда рациональнее держать их на диске и загружать только по нужде.

2) Гигабитный интернет провели ещё не в каждый дом. А ждать пару часов, пока ОС будет готова к работе не каждый захочет. Кстати, учти что в России очень-очень хорошие тарифы интернета по сравнению со многими развитыми странами. А что если ты оказался не в крупном городе, а поехал куда-нибудь и хочешь поработать в пути? Удачи тебе в ожидании загрузки нескольких гигабайт через EDGE, чо.

3) Никакая отказоустойчивость. Да, допустим, ДЦ какого-нибудь гугла зарезервированы по самое не могу, поэтому шанс их отказа стремится к нулю. Но как насчёт канала от меня до этого ДЦ? Забыл заплатить за интернет? Перерезали кабель случайно/специально? Отключили свет в одном из домов (не обязательно твоём), где стоит провайдерский свитч, через который шёл твой трафик? Админ провайдера накосячил? И всё! Твои данные у тебя вроде и есть, однако ничего сделать ты с ними не можешь.

Проблему 1 решает альтернатива. Полностью работать в виртуалке в ДЦ, а самому сидеть через тонкий клиент. Но это никак не отменяет проблем 2 и 3. Зато создаёт новые (твои данные тебе не принадлежат, админ ДЦ может следить за каждым твоим шагом).

KivApple ★★★★★
()

Короч.
Спуф, у тебя даже нет своего облака.

Я тут залез на Докер.сом и прослезился.
Они для виндового клиента таскают Оракловский ВиртБокс.

Только я еще не допетрил акакием он будет работать, если уже Гипер-В запущен. А где-то вычитал, что запущенный Гипер-В наглухо присаживается на VT-x подсистему процессора и никому её не отдает.

А, вспомнил, пытался накатить параллельно Вмари и Гипер-В,
получил непонятные вопли, аж печеньку в кружку с чаем выплюнул.

Deleted
()

у нас по прежнему ДИСКОВАЯ ОПЕРАЦИОННАЯ СИСТЕМА

2016

Сторож музея разбушевался.

aidaho ★★★★★
()

Кому то есть дело что происходит внутри железной коробочки? В 90-ые были NetPC, но не взлетели.

ranka-lee
()
Последнее исправление: ranka-lee (всего исправлений: 1)

Зачем ты посмотрел РМ?

Satou ★★★★
()
8 июня 2016 г.

1)Тонкий клиент еще никто не советовал? 2)Переход на загрузку с облака ничего не меняет, в датацентре диски как были так и есть.

fridaycat
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.