LINUX.ORG.RU

Форум

Активные теги:

 , , , , , , , , , , , , , ,

Форум — General

Как объединить замену и транслитерацию?

Как в sed (или vim) объединить в одну операцию выделение фрагмента строки и замену символа в этом фрагменте? Или как провести замену не в строке, а в подстроке, когда неизвестно, сколько замен произвести и сколько пропустить?

Есть набор URL-ов вида:

http://drabadan.ord/drabadan-1/cover/  
http://drabadan.ord/drabadan-1/pg1-1/  
http://drabadan.ord/drabadan-1/pg1-4/2/  
http://drabadan.ord/drabadan-again/pg5-1/  
http://drabadan.ord/list/  

Нужно преобразовать его в скрипт вида:

curl -LR http://drabadan.ord/drabadan-1/cover/ -o drabadan-1.cover.htm
curl -LR http://drabadan.ord/drabadan-1/pg1-1/ -o drabadan-1.pg1-1.htm
curl -LR http://drabadan.ord/drabadan-1/pg1-4/2/ -o drabadan-1.pg1-4.2.htm
curl -LR http://drabadan.ord/drabadan-again/pg5-1/ -o drabadan-again.pg5-1.htm
curl -LR http://drabadan.ord/list/ -o list.htm

То есть повторить исходную строку, затем вывести её же без «http://drabadan.ord/» и с заменой всех оставшихся «/» на «.» (заранее неизвестное число раз).

В итоге я всё сделал через регулярные выражения на Питоне. Можно через paste. Но можно ли тут обойтись однострочником на sed?

 , ,

question4
()
Форум — General

WineHQ / Linux mint /libzstd не дружат друг с другом, вайн заблокировал систему

Поставил себе СВЕЖУЮ mint, захотел накатить wine. Доступный в системе wine был 9 версии и были какие-то проблемы. Решил накатить свежий, добавил noble репозитории, и он сильно ругался на то что не может установить какие-то компоненты.

В вайне по этому поводу высказывается, типа «такое бывает, потому что вайн зависим от более старых библиотек, чем те что в системе». Окей, через aptitude смотрел зависимости, ставил по одной, на ходу снося пакеты, которые не могут с даунгрейтными версиями. В итоге вайн то поставил, но ожидаемо, после перезагрузки был отвал, даже до графического ввода пароля не доходил. startx не работал, установил какой-то X.

Перезагрузил, уже вижу классическую систему ввода пароля, но было что-то вроде failed to start session. Окей, применил apt install cinnamon. Входит.

Но тем не менее при попытки apt update/upgrade теперь ругается на zstd1

update-initramfs: Generating /boot/initrd.img-6.17.0-22-generic
zstd: symbol lookup error: zstd: undefined symbol: POOL_free
E: mkinitramfs failure cpio 141
E: mkinitramfs failure zstd -q -1 -T0 127
update-initramfs: failed for /boot/initrd.img-6.17.0-22-generic with 1.
dpkg: error processing package initramfs-tools (--configure):
 installed initramfs-tools package post-installation script subprocess returned 
error exit status 1
Processing triggers for linux-image-6.17.0-23-generic (6.17.0-23.23~24.04.1) .

zstd версии 1.5.5, последняя (нужная) 1.5.8. Но если её устанавливать, synaptic предлагает снести кучу пакетов опять, в том числе вайн.

Как быть, как устранить конфликт библиотек? Или корректно вайн установить

 , ,

E17l
()
Форум — Искусственный Интеллект

LLM: какие бывают? Где брать? Как пользоваться?

Во первых строках

Май 2026. Большие языковые модели перестали быть диковинкой. И даже на ЛОРе под аккомпанимент из ворчания «старичков» появился раздел про ИИшечку. Правда, выясняется, что далеко не все даже в технарском сообществе знают, что собой предтавляет современный ландшафт ЛЛМок: что они умеют, как их применяют, зачем они вообще нужны.

Серьезно усложняет погружение в актуальный контекст (в человеческом смысле слова) уникальный «русский путь»: блокировки со стороны западных разработциков и провайдеров, блокировки от родного РКН и (с недавних пор) ФСБ. Отсюда следуют: платёжные ограничения, обилие китайских альтернатив, собственные разработки Яндекса и Сбера как бенчмарк и пример LLM ( последний пункт - это очень, очень плохо).

Поэтому в недрах моей черепной коропки и на серверах Shēndù Qiúsuǒ (в большей степени) родился следующий текст. Он о том, как большинство пользователей знакомится с БЯМами, какие этапы в работе с модельками проходит, и какие есть варианты выбора в море способов взаимодействия с очень Искусственным не очень Интеллектом.

Двигаемся по уровням погружения.


Первое касание: веб-чаты

Вы только знакомитесь с LLM. У вас нет ни API-ключа, ни желания разбираться с токенами и эндпоинтами. Нужна вкладка в браузере, куда можно написать вопрос и получить ответ. Благо, в 2026 году вариантов — море. Начнём с того, что доступно прямо здесь и сейчас, без обмазывания проксями и ВПНами, бесплатно, иногда с СМС.

DeepSeek — главный хит среди китайских чатов. Регистрация по email, с апреля - модель V4-Pro с контекстным окном в миллион токенов. Работает только с текстом и файлами, генерации изображений нет. Бесплатно.

Qwen Chat от Alibaba — если хочется мультимодальности. Генерация изображений? Встроена. Видеопонимание? Пожалуйста. Голосовой ввод? Есть. Qwen Studio позволяет переключаться между разными версиями моделей. Есть мостик к тем самым кодинг-агентам (о них позже) - кодинг-режим прямо из веб-интерфейса. С возможность подключения своего git-репо, с работой в git-образном окошке.

Kimi от Moonshot AI навалил массу фич прямо в веб интерфейс. Тут и кодинг-окошко, и конструктор сайтов. И даже мечта офисного работника - автогенерация презенташек. Загрузил документ — получил готовый PPT.

Doubao (ByteDance) делает ставку на голосовой диалог — естественную речь, AI-персонажей, экосистему TikTok. Можно делать картинки, переводить тексть, выполнять домашку. Модно, молодежно, для неразвлекательных целей - малоприменимо.

Ernie Bot (Baidu) и Spark (iFlytek) — ещё два китайских товарища. Ernie щеголяет плагинами и интеграцией с поиском Baidu, Spark — лучшими в Китае голосовыми технологиями и мультяшными цифровыми аватарками. Для российского пользователя - не особо полезно.

Все эти чаты доступны из России без VPN. Минус: часть требует китайский номер для регистрации.

Российские решения — варианта два и оба так себе: YandexGPT aka AlisaAI и GigaChat. Отстают от флагманов западного моделестроения очень сильно. Для серьезной работы (по крайней мере, с текстами, картинками и видео) - почти не пригодны. Но плюcы, конечно есть. Русский язык для них родной. YandexGPT встроен в поиск Яндекса, в Алису, в сервис «Яндекс 300» (гусары,молчать!) - краткий пересказ статей, подкастов и видео. GigaChat от Сбера умеет генерировать изображения (Kandinsky) прямо в чате. Оба работают без VPN, Яндекс еще и доступен при режиме «белых списков» (почти всегда), принимают российские карты для премиум-функций.

А теперь — веб-чаты, которые без VPN не открываются: ChatGPT, Claude, Gemini, Grok, Perplexity, Mistral. Это западные флагманы. У каждого — арсенал уникальных фич: Artifacts у Claude, Canvas и GPTs у ChatGPT, Perplexity с полным цитированием источников. Есть все, что и у web-реализаций из Поднебесной и с горкой. Но дверь заперта. Нужны VPN и, для платных подписок, иностранная карта. Досадно, но ладно.


Коготок (claw) застрял - всей птичке пропасть: связка Агент + API

Вы распробовали чаты. Теперь хочется большего: чтобы нейросеть работала с кодом, файловой системой, терминалом. Чтобы сама коммитила в Git, открывала PR, запускала тесты. Сделала rm -rf /*, наконец. Для этого нужны две вещи: агент(к агентности в философском или daemon смысле не имеет никакого отношения, просто так повелось называть) - это софт, который оркестрирует взаимодействие и предоставляет инструметы расширяюшие или ограничивающие работу модели и API-провайдер - тот, кто поставляет доступ к самой LLM, развернутой на серверах китайских товарищей или буржуйских супостатов.

Поставщики «мозгов» бывают двух сортов

Вендоры — разработчики моделей: OpenAI, Anthropic, Google, DeepSeek, Alibaba (Qwen). У них прямой доступ к собственным моделям.

Агрегаторы — посредники, собирающие модели от разных вендоров под одной крышей: OpenRouter есть бесплатный план, DeepInfra, Together AI, Groq есть бесплатный план, Fireworks AI, OpenCode (Zen/Go) есть бесплатный план, Cerebras есть бесплатный план. Список можно продолжать и продолжать, заканчивая помойками-однодневками от успешных васянов с ветхими стойками в древних ЦОДах. Отмечу, многие из агрегаторов не только продают доступ к общим инференс-инстансам, для солидных господ есть предложения о покупке отдельного инстанса или, натурально, выделенного вычислительного кластера для рассупонивания модельки.

Отдельного упоминания стоит nVidia - эти ребята производят не только лучшие GPU и NPU на сегодняшний день, они еще и файн-тюнят открытые модельки, предоставляют API и держат репозиторий открытых моделей (что это и зачем - дальше по тексту). Почти все провайдеры требуют иностранную карту. Но есть обходные пути: оформление иностранных карт, посредники с разнообразных платежных сервисов (тысячи их), старая добрая крипта.

Российские вендоры YandexGPT и GigaChat тоже предоставляют доступ к моделькам через API. Полная поддержка российских карт, данные на серверах в РФ. GigaChat даёт 1M токенов бесплатно при регистрации. Кто-то пользуется.

Агенты: open-source и проприетарные

Агент — это программа, которая превращает LLM из собеседника в деятеля. Агент читает код, пишет файлы, запускает команды, ищет в интернете, подключается к базам данных. Его принято ставить в Doker’ы, на виртуалки, на отдельные ПК (все любят MAC mini). На самом деле, если вы не кулхацкер, то для задач регулярной генерации текстов, создания скриптов для локальных автоматизаций, кодинга своего уютного сайтика - вполне можно разворачивать локально на машинке в юзер-директории (большинство агентов сами вам напомнят, что надо высовывать в сеть, а что нет, и в каких случаях). Так или иначе, все инструменты из нашего обзора делятся на три лагеря:

Open-source агенты:

OpenCode (150K ★) — CLI/Desktop/IDE/Web. TypeScript. Поддерживает 75+ провайдеров, включая локальные модели. Может работать в headless-режиме. Кроссплатформенный. Универсальный.

Cline (61.5K ★) — расширение VS Code. MCP из коробки, умеет генерировать MCP-серверы прямо из чата. Подтверждение каждого действия (human-in-the-loop).

Kilocode (19K ★) — позиционируется как «инженерная платформа», кроссплатформенный, расширенный функции автоматизации/ выполнения циклических задач.

Aider (44.5K ★) — CLI, Python. Фишка: Repomap — карта репозитория для навигации модели.

Qwen Code (24K ★) — CLI от Alibaba. Заточен под семейство Qwen, но работает с любыми моделями. Поддержка Skills и SubAgents.

Roo Code (24K ★) — форк Cline с фокусом на кастомизацию режимов. Поддерживает русский язык в интерфейсе.

LangChain, CrewAI, AutoGPT, MetaGPT, Qwen Agent — фреймворки для построения собственных агентных систем. От библиотек до платформ с marketplace.

Pi-agent (45.8K ★) — минималистичный terminal-based harness от Mario Zechner. Философия: «адаптируй pi под себя, а не наоборот». Собственный TUI-движок. Не поддерживает MCP принципиально — всё необходимое строится через extensions. По сути — эталонный каркас для построения LLM-агентов: на его SDK построен, в частности, OpenClaw.

Проприетарные агенты:

Claude Code (Anthropic) — терминальный AI-разработчик. Автономная работа с кодом, коммиты, PR. Но: в РФ нужен и VPN, и иностранная карта. Худшая доступность.

VS Code — база. Минималистичный, расширяемый. Самый распространённый. GitHub Copilot - это по сути то же самое.

Cursor — AI IDE (форк VS Code). Composer 2, сверхточное автодополнение, облачные агенты.

Windsurf — ещё один agentic IDE. Cascade (локальный агент) + Devin (облачный). Agent Command Center — канбан-доска для управления агентами.

Antigravity (Google) — десктоп-приложение. Регионально ограничен, но сообщество поддерживает open-antigravity-patcher для обхода блокировок в РФ.

Важный нюанс: почти все агенты — «агностики». Они не привязаны к конкретному вендору. Вы можете направить Cline на OpenRouter, Aider — на DeepSeek API, OpenCode — на локальную Ollama. Связка выбирается под задачу и бюджет. Исключения: Claude Code работает только с моделями Anthropic; Qwen Code оптимизирован под Qwen, но принимает и другие эндпоинты.

OpenClaw (369K ★) стоит особняком. Это не чисто кодинг-агент, а, скорее, персональный AI-ассистент с мультиканальным Gateway (23+ каналов: WhatsApp, Telegram, Slack, Discord, Signal, iMessage и др.). Агентный движок построен на Pi-agent SDK. Влияние ОткрытойКлешни на экосистему кодинг-агентов колоссально: именно OpenClaw с его 369 тысячами звёзд популяризировал TUI-интерфейс среди массовой аудитории, а его система навыков ClawHub (5400+ skills) задала стандарт для реестров агентных умений. Плагины совместимы с форматами Codex/Claude/Cursor. Если Pi-agent — эталонный harness, то OpenClaw — эталон того, как этот harness развернуть в продакшене.

Выбор агента — вопрос привычек (CLI/IDE/Web) и языка реализации. Выбор API — вопрос доступности, цены и качества модели для конкретной задачи. Специализированных российских AI-агентов для работы с кодом по состоянию на май 2026 не существует. YandexGPT и GigaChat — LLM общего назначения, не agentic tools. Адаптация open-source решений (Cline, Aider, Qwen Code) с локальными моделями или российскими API-провайдерами — основной путь для разработчиков и вайб-кодеров в РФ.


А внутри у ней - нейронка: плагин, память и контекст

Вы собрали связку «агент + API» и она работает. Но со временем приходит понимание: агент, который после каждой сессии «забывает» всё на свете — это пол-агента. Ему нужна память, причем такая, которая не сжигает все контекстное окно еще до старта задачи. Ему нужны инструменты, хорошо бы мониторируемые и логируемые - для пущей точности и контроля. Не лишним будет распараллеливание работы, запуск отдельных суб-агентов, такск-трекинг для всего этого зоопарка. Для простых ребят, не владеющих тайным мастерством программирования с помощью естественного интеллекта (вроде меня), желательно, чтобы эти инструменты кто-то уже написал.

К счастью, вокруг каждого крупного агента выросла экосистема.

Рынок плагинов и скиллов

Самый раздутый маркетплейс — ClawHub у OpenClaw. 5400+ скиллов, 52 тысячи инструментов, 180 тысяч пользователей, 12 миллионов загрузок. Категории от self-improving agent до security и dashboard builder. Публиковать может любой пользователь GitHub — прямо сейчас тысячи вайбкодеров пишут свои пул реквесты.

У Claude Codeофициальный маркетплейс от Anthropic. Несколько десятков официальных плагинов (code-review, feature-dev, plugin-dev, hookify, pr-review-toolkit), плюс возможность создавать приватные маркетплейсы для команд. В отличие от плагинов сообщества для других агентов (где качество не гарантируется), у Антропиков все супер сурьезно: полноценные бандлы с командами, агентами, хуками, скиллами и MCP-конфигами.

Pi-agent пошёл другим путём. Вместо маркетплейса — npm-пакеты (Pi Packages) и система Extensions на TypeScript. Extensions регистрируют произвольные инструменты, команды, хоткеи, UI-компоненты, обработчики событий. Можно заменить встроенные инструменты, добавить sub-agents, plan mode, permission gates. Философия pi: «ничего не встроено — всё расширяемо».

Cline — погружение в вайбкодинг-дзен: агент сам создаёт MCP-серверы из чата. Говорите «добавь инструмент, который…» — и Cline пишет, устанавливает и подключает новый MCP-сервер. Без программирования, без конфигов вручную.

Стандарты конвергируют. MCP (Model Context Protocol) стал универсальным языком подключения инструментов — 85K звёзд, 10K форков, тысячи community-серверов. AgentSkills (SKILL.md) — стандарт для скиллов, совместимый между Pi, Claude Code, Cline, OpenCode. Плагинные форматы пересекаются: OpenCode читает bundle-плагины Codex/Claude/Cursor. Как правило плагины/скиллы/тулзы опенсорсны и бесплатны, но уже появляется рынок коммерческих MCP-серверов.

Память агента — иногда за нее нужно платить

Агент который знает и помнит все про вашу машину, про вас, про ваши привычки и стиль написания текстов (машинных и человечных). Страшно… очень страшно… Но значительной части юзеров именно это и надо. Чтобы агент поддерживал стиль общения, помнил, над чем вы с ним работаете, дольше одной сессии, был чтобы таким Джарвисом у Железного Человека. Для этого нужна память. И тут главный вопрос, как сделать так, чтобы обращения к памяти не съедали драгоценные токены и не сжигали чуть менее драгоценный контекст. Дело не простое и вайбкодингу малоподдающееся (тут реально надо быть ML-инженером).

Mem0 (55K ★, Apache 2.0) — де-факто стандарт. Извлекает и хранит пользовательские предпочтения, факты, контекст. Алгоритм v3 (апрель 2026): single-pass экстракция, entity linking, multi-signal retrieval (семантический + BM25 + entity matching). Бенчмарки: 91.6 на LoCoMo, 93.4 на LongMemEval. Есть self-hosted версия — pip install mem0ai или docker compose up. Встроен в OpenCode, поддерживает MCP.

Letta (ex-MemGPT, 22.5K ★) — self-editing memory: агент сам обновляет свою память. Архивная память + recall для восстановления контекста из долгосрочной. Есть собственный агент, есть инструмент памяти по API.

LangMem (MIT) — Memory SDK для LangGraph-агентов, встраивается в существующие пайплайны.

Векторные базы как фундамент памяти

Любое memory-решение опирается на векторную БД. Milvus (44K ★), Qdrant (31K ★), ChromaDB (28K ★), Weaviate (16K ★) — все open-source, все разворачиваются локально в Docker, все бесплатны. Qdrant умеет квантовать векторы с экономией RAM до 97%. ChromaDB встроена в Mem0 по умолчанию. Milvus — выбор для промышленных масштабов (10B+ векторов).

Экосистема расширений — то, что превращает агента из игрушки в инструмент. Плагины и скиллы добавляют способности. Memory-решения добавляют контекст между сессиями. Векторные БД — фундамент. Почти всё open-source и работает локально — российскому пользователю здесь вольготно.


Полный суверенитет и абсолютное погружение: локальный инференс

Вы преисполнились. Вам мало облачных API. Хочется, чтобы модель работала на вашем железе, без интернета, без лимитов, без оглядки на чужие серверы. Все - мы в стадии локального развертывания БЯМ. Здесь три составляющих: где брать модели, чем их запускать и на чём их запускать. Ответ на последний вопрос суперпростой - на чем угодно. Современные модели постояннно оптимизируются под «слабенькие» железки, снижают требования к объему памяти и вычислительной мощности квантизацией и ротацией активных параметров. Видеокарта НЕ обязательна - большинство инструментов запуска (почти у всех под капотом llama.cpp) прекрасно работает как с GPU, так и со связкой CPU+RAM. Отсюда стандартный вывод: много оперативы не бывает.

Репозитории моделей

Главный хаб планеты — Hugging Face. 2 миллиона моделей. Доступен из России без VPN (май 2026). Некоторые российские аккаунты удалены, но сам сайт открыт. При больших загрузках может барахлить без VPN.

ModelScope — китайский аналог HF от Alibaba. Эксклюзивные китайские модели, которых нет на Hugging Face.

Ollama Library — встроенный реестр моделей для инструмента Ollama.

CivitAI — репозиторий моделей для генерации изображений (Stable Diffusion, Flux).

Собственного российского репозитория нет. Российские открытые модели — это практически исключительно экосистема Сбера (GigaChat, ruGPT, Kandinsky), выложенные организацией ai-sage на Hugging Face. Яндекс веса не публикует.

Инструменты запуска

llama.cpp (109K ★) — фундамент всего. Чистый C++, без внешних зависимостей. Компилируется под всё: от серверной стойки с 8×H100 до Android-телефона. Поддерживает 200+ архитектур, квантование от 1.5 до 8 бит. Multi-node через RPC — можно распределить инференс по сети. OpenAI-совместимый API-сервер. Но: требует компиляции из исходников.

Ollama (109K ★) — проприетарная обёртка над llama.cpp, доведённая до состояния «скачал и заработало». Одна команда ollama run llama3 — и модель отвечает. Есть платный облачный уровень Pro/Max. Идеальный старт для тех, кто не хочет ковыряться в исходниках.

vLLM (79.3K ★) — инструмент для продакшена. Python, PagedAttention, continuous batching. Максимальная пропускная способность при массовых запросах. Multi-node, множество форматов квантования. pip install vllm — и поехали. Основная платформа — Linux с GPU.

LM Studio — десктопное приложение с GUI. Встроенный каталог моделей: выбрал → скачал → запустил. OpenAI-совместимый API из коробки. LM Link (апрель 2026) — возможность подключаться к удалённым инстансам. Бесплатно для личного использования.

GPT4All — десктоп + Python API. LocalDocs — чат с вашими документами без интернета. Vulkan-ускорение на INTEL, NVIDIA и AMD.

TextGen (oobabooga) — веб-интерфейс на Gradio. Multimodal, LoRA-тренировка, генерация изображений, TTS. 100% оффлайн.

KoboldCpp — один исполняемый файл. Внутри: LLM + генерация изображений + генерация видео + распознавание речи + синтез речи + генерация музыки. Есть UI для ролевых игр.

MLX (github.com) — фреймворк от Apple для Apple Silicon. NumPy-подобный Python API, unified memory. Идеален для владельцев Mac.

llama.rn — мобильный инференс. React Native-обёртка над llama.cpp для iOS (Metal) и Android (OpenCL/NPU).

Российских инструментов для локального инференса нет. Российские модели запускаются через международные инструменты — те же GGUF-квантизации GigaChat 3.1 работают в llama.cpp и Ollama без проблем.

Напоследок

Является ли этот гайд/обзор полным и исчерпывающим? Конечно нет. Во первых все онлан-чятики, провайдеров API, кодинг-агентов, различных около-ИИшных утилит и инструментов - не переназвать. Во ворых отрасль развивается очень быстро, и также быстро устареет этот материал. Где-то в середине лета выйдут новые крупные западные и китайские модели (скриньте этот твит). Скорее всего, еще раньше появится новая «хайповая» тема - навроде OpenClaw в начале этого года. Но парой вещей эта портянка ценна: она описывает логику знакомства обычного работяги с БЯМами, плюс тут очень много ссылочек на всяческую халяву и опен-сорц. Надеюсь, вам пригодится.

PS: В материале было много сравнительных табличек чатов, агентов, провайдеров и инструментов запуска. Вот только движок ЛОРа ни в какую не позволяет скрещивать Markdown с HTML и прятать фрагменты под кат. Так что, если надо, вот тут навалено аналитики

 ,

ivbor
()
Форум — Linux-org-ru

Кнопка «системная тема»

Куда вы ее запрятали? Кто ее там видит? Вообще кнопку день/ночь ставят около имени в профиле. Примерно так: ☉ bryak. Но если вы ее всё же не хотите ставить вверху, то в подвале на одной линии с кнопкой «Вверх» слева, а «О сервере» и все остальные ссылки поставить ниже или же кнопку "Вверх сместить на одну линию с «Системная тема» т.е ниже ссылок. А так одна кнопка получилась выше, другая под ссылками. Какой-то ужас :)

 

bryak
()
Форум — Linux-hardware

Подбор монитора. Вопрос про совместимость разрешений и видюхи

Ноут с HD 8650G, DP 1.2. В спеках до (2560x1600), но при воспроизведении 2K в mpv ругается, что HW не поддерживает больше 2048 x 1152.

Хочу купить моник и подключать к нему. где-нибудь 27".
Вопрос: с каким разрешением покупать? полноценные 2K всё-равно не потянет. 1080? а если взять, например 4K, как будет работать масштабирование (не будет ли просадки качества картинки или отклика)?

 , , , ,

teod0r
()
Форум — Linux-org-ru

Удалить тему с форума

Подскажите, можно ли удалить тему с форума и как это сделать?

Перемещено CrX из general

 

eskulap71
()
Форум — General

Подскажите как правильно реализовать маршрутизацию на роутере с Openwrt между двумя туннелями WG

Здавствуйте, подскажите пожалуйста как правильно реализовать маршрутизацию на роутере с Openwrt между двумя туннелями WG. С линуксом, сетевыми настройками не знаком, но думаю достаточно будет ссылки на мануал, должен справится, настраивал туннели на роутере по мануалам, вроде получилось.

  1. Есть домашний роутер на OpenWrt 25.12.1, ip белый, v4.
  2. Есть телефон, андроид, оператор Т2.
  3. Есть рабочая сеть к которой нужно периодически подключаться через WG по ipv6 адресу.

Я часто не на рабочем месте, в идеале бы подключаться через телефон, что бы не возить с собой ноутбук с той же Windows, где мне реализовать всё было бы не сложно. И вот в этом трудность, у Т2 нет v6 протокола.

Что решил сделать. На роутере создал два WG туннеля:

  • С телефона подключаюсь к рутеру, интерфейс wg0, адрес сети 10.0.0.0.
  • Роутер подключается через второй туннель к рабочей сети, интерфейс wg1, адрес сети 172.30.0.0.
  • Адрес домашней сети 192.168.1.0.
  • По отдельности туннели работают. Приложение WG это впн, и создать второе подключение к рабочей сети не могу хоть и получил возможность обращаться к ipv6 адресам. При попытке запуска второго никуда не подключается, так как сразу отключается первое.
  • Убираю интерфейс wg1 из lan зоны, у меня на домашнем компе отдельным приложением подключение реализовано, и оно не работает когда wg1 в lan зоне. Проверяю что подключение осталось через терминал «ping -I wg1 172.30.0.1». Пингуется. И на домашнем компе всё подключается.
  • Создаю новую зону в firewall и добавляю туда оба интерфейса туннелей wg0 и wg1, что бы сразу с телефона получить доступ и к рабочей сети - и вот тут всё ломается, даже пропадает интернет в домашней сети.

Подскажите где моя ошибка? Насколько я понимаю нужно правильно настроить маршрутизацию между туннелями, но знаний не хватает самому понять в каком направлении копать.

 ,

Sartifice
()
Форум — General

Нашёл очень странный mp3 файл

https://drive.google.com/drive/folders/15xIvN7xaMPk7gvPQDt63zYUb37V9Y2gy?usp=sharing Нашёл на просторах интернета файл, На телефоне отображаетя как 41:16, после воспроизведения с начала на 5:51 начинается тишина. Но если перемотать на тишину то будет воспроизводится микс из самой игры.

 

snaS52Sans
()
Форум — Talks

День радио

С праздником причастных!

 день радио, ,

etwrq
()
Форум — Linux-org-ru

Галерея - неподтвержденные

Из галереи пропал пункт неподтвержденные и теперь неподтвержденные сложно посмотреть - еле нашел. В новостях есть, в статьях есть, а в галерее - нет. Верните пожалуста так удобней было.

 , неподтвержденные

amd_amd
()
Форум — General

OMV FileBrowser

После обновления Quantum Filebrowser web интерфейс перестал пускать в домашние папки пользователей. «У вас нет прав доступа к этому.» Переустанавливал плагин, удалял/создавал пользователей заново, ничего не помогает. Либо все могут заходить в домашние папки, либо никто.

 

souldemeter
()
Форум — Talks

В Архыз в гости к Эдику смотреть на звезды и спорить о вечном

Спойлер: сам по себе @Eddy_Em тут не при чем, просто совпало.

Я каким-то образом, оказался подписан в телеге на канал «Гусиная дорога». Они устраивают поездку в Архыз посмотреть на звезды. А там вроде как пока живет и работает одна из легенд ЛОРа. Надеюсь, у него все хорошо.

Для !Ъ: https://t.me/gooseroad/2013

Для Ъ:


Если вы ещё не были в нашем астропутешествии в Архыз, начало июля - отличное время. Погода более стабильная, чем весной. В горах расстает снег и все пешие маршруты будут доступны. Наблюдать в телескоп по ночам не так холодно, как осенью.

В средней полосе России в начале июля очень светлые ночи. При этом, в Архызе из-за более южной широты, ночи длиннее и вполне тёмные, что позволяет видеть Млечный Путь и наблюдать в телескоп туманности и галактики. А ещё там мало засветки, тёмное ночное небо и потрясающая природа.

Как и всегда, в этом путешествии:
- поездим на УАЗиках 
- сходим в горы 
- посетим крупнейшие обсерватории России 
- по вечерам будем наблюдать в телескоп 
- пофотографируем звёздное небо

Если вы хотите присоединиться, посмотреть подробную программу, узнать стоимость, или задать другие вопросы, пишите Диме

Всем звёздного неба!

Сам я с этими ребятами никуда не ездил, пока не определился поеду ли вообще, но может еще кому интересно будет. Ребята, вроде, интересные. :)

 , , ,

another
()
Форум — Искусственный Интеллект

Гугл фанится — щепки летят

Ъ: хром качает 4ГБ весов гемини-нано на устройства, никого не спрашивая и скачает снова, если удалишь

линк: https://www.thatprivacyguy.com/blog/chrome-silent-nano-install

А у меня вот трафик с лимитами, например.

 , ,

BruteForce
()
Форум — Linux-org-ru

Прокрутка нескольких картинок не всегда «зацикливается».

Заметил странное. Например, в этой теме - если прокручивать картинки вправо (нажатием мышки на стрелочку), то доходит до последней картинки, и останавливается, на первую не переключается. При прокрутке влево - исправно перескакивает с первой на последнюю. А вот в этой теме – всё работает в обе стороны.

Дополнение: при отключённых плагинах проблема не воспроизвелась. Вопрос снимается.

Дополнение2: дело не в плагинах. Дело в размере окна. Меняю размер окна на поменьше - всё работает. Возвращаю большой размер - перестаёт крутить вправо.

 , ,

Beewek
()
Форум — Talks

BluRay болванки

Братва, а расскажите пожалуйста, какой нынче положняк по компакт дискам? Какие болванки не совсем говно, но при этом чтобы не платить по косарю за один диск? А то времена нынче такие, что явно пора запасаться консервами

И если про приводы ещё что-то полезное можно нагуглить, то вот где и как лучше брать диски - совершенно непонятно

 ,

mega_venik
()
Форум — Security

Меня взломали?

Сегодня при startx первой строчкой выдало

xauth: (stdin):2: unknown command «4ab297e6aeba483607fda6e8a14a4e98»

Вчера такого не было.

 , , ,

Dog
()
Форум — Talks

Автор платформы Bun проводит эксперимент по переписыванию с Zig на Rust

https://www.opennet.ru/opennews/art.shtml?num=65379:

Джарред Самнер (Jarred Sumner), создатель и основной разработчик серверной JavaScript-платформы Bun (bun.sh), создал Git-ветку, в которой приступил к переписыванию Bun с языка Zig на Rust. Переписывание ведётся с использование AI-ассистента Claude, для которого сформировано отдельное руководство по портированию. По словам Джарреда пока это лишь эксперимент, а не официальный порт, и высока вероятность, что дальше эксперимента дело не зайдёт и переписанный код не будет использован.

Портирование ещё не завершено, и на текущем этапе весь интерес к проекту сосредоточен на том, чтобы оценить насколько работоспособным получится порт, будет ли он проходить набор тестов основного проекта и сложно ли будет сопровождать новый код. В конечном счёте планируется провести сравнительное тестирование вариантов Bun на Zig и Rust.

В декабре прошлого года проект Bun поглотила компания Anthropic, поэтому у Джарреда есть ресурсы для вовлечения в портирование передовых AI-моделей Claude. Платформа Bun применяется в продуктах Claude Code и Claude Agent SDK, и компания Anthropic заинтересована в повышении её качества и развитии. Bun является одним из самых успешных проектов на языке Zig, при этом у разработчиков Zig и Bun расходятся мнения в отношении применения AI в процессе разработки. В проекте Zig утверждён жёсткий запрет применения больших языковых моделей при подготовке pull-запросов, issue и комментариев (запрещён даже перевод через AI неанглоязычных комментариев).

Введение подобных ограничений объясняется разработчиками Zig негативным опытом в рецензировании созданных через AI pull-запросов, которые отнимают ресурсы и время (например, отмечаются бессмысленные изменения, AI-галлюцинации и раздутые коммиты в 10 тысяч строк). Кроме того, проект Zig позиционирует себя как ориентированный на участников, а не вносимый ими вклад в разработку - главной целью принятия pull-запросов называется не добавление нового кода, а помощь в развитии новых участников.

Автор Bun не согласен с запретом AI в Zig и полагает, что AI-слоп останется ностальгическим пережитком 2025 и 2026 годов, а разработка открытого ПО эволюционирует до запрета приёма кода от людей. Люди будут обсуждать проблемы, ставить задачи и расставлять приоритеты, а написание кода и отправка изменений в репозитории станет уделом AI. В качестве причины экспериментов с переписыванием на Rust также отмечается желание устранить проблемы в Bun, вызванные утечками памяти, и неприемлемая для крупных проектов политика Zig в отношении принятия в язык изменений, нарушающих совместимость.

Из-за запрета применения AI разработчики Bun вынуждены поддерживать собственный форк инструментария Zig, в котором благодаря применению AI удалось в 4 раза ускорить компиляцию за счёт распараллеливания семантического анализа и генерации кода. При этом судя по комментарию одного из разработчиков Zig причина отклонения патчей не в AI, а в том, что распараллеливание семантического анализа затрагивает не только компилятор, но и сам язык - чтобы реализовать предложенную функциональность без ошибок и несовместимостей, требуется внесение изменений в язык Zig. Вместо распараллеливания, разработчики Zig развивают инкрементальную компиляцию, которая по их предположению позволит на порядок повысить скорость компиляции.

JavaScript-платформа Bun развивается как высокопроизводительный аналог платформ Node.js и Deno. Проект разрабатывается с оглядкой на обеспечение совместимости с серверными приложениями для Node.js и поддерживает большую часть API Node.js. В состав платформы входит набор инструментов для создания и выполнения приложений на языках JavaScript и TypeScript, а также runtime для выполнения JavaScript-приложений без браузера, пакетный менеджер (совместимый с NPM), инструментарий для выполнения тестов, система сборки самодостаточных пакетов и прослойка для встраивания обработчиков, написанных на языке Си. По производительности Bun заметно обгоняет Deno и Node.js (в тестах на базе фреймворка React платформа Bun в 2 раза опережает Deno и почти в 5 раз Node.js). Для выполнения JavaScript задействован JavaScript-движок JavaScriptCore и компоненты проекта WebKit с дополнительными патчами.

 , , , ,

dataman
()
Форум — Talks

Смена работы

Поделитесь, пожалуйста, кому не сложно.

Как вы поняли, что пора менять работу? А то меня мучают смутные сомнения, что пора. Даже оффер в кармане, но я не до конца уверен. Надо помозговать над совокупным общественным опытом.

 , ,

aiqu6Ait
()
Форум — Desktop

Помогите адаптировать правило udev к systemd

Долго юзал openrc и такое правило

SUBSYSTEM==«block», KERNEL==«sd[b-z][0-9]», ACTION==«add», RUN+=«/bin/mkdir -p /mnt/$name»
SUBSYSTEM==«block», KERNEL==«sd[b-z][0-9]», ACTION==«add», RUN+=«/bin/mount -O guid=984 /dev/%k /mnt/$name»
SUBSYSTEM==«block», KERNEL==«sd[b-z][0-9]», ACTION==«remove», RUN+=«/bin/rmdir /mnt/$name»

нормально работало, создавало папки в /mnt и монтировало в них разделы. На днях накатил обычный Арч и теперь нифига не работает, папки создаются но в них ничего не монтируется. Помогите починить

 , , ,

Dog
()
Форум — Talks

А что будет с *.org.ru после 1 сентября 2026 года?

Напомню, все операции с .ru после 1 сентября только с госуслугами и ЕСИА

 домены

nerfur
()

RSS подписка на новые темы