Периодический обрыв Ethernet линии
Нужно организовать периодический обрыв Ethernet линии. Что б, например, каждые 5-10 минут происходило пропадание сигнала на несколько секунд.
Может кто-нибудь видел такие девайсы где-нибудь на Али?
Нужно организовать периодический обрыв Ethernet линии. Что б, например, каждые 5-10 минут происходило пропадание сигнала на несколько секунд.
Может кто-нибудь видел такие девайсы где-нибудь на Али?
Всем привет.
Когда у меня стояла Ubuntu 18.04, я запускал OpenWRT на qemu для платформы arm32:
qemu-system-arm -machine virt -cpu cortex-a15 -nographic -netdev bridge,id=lan,br=br-lan,helper=/usr/lib/qemu/qemu-bridge-helper -device virtio-net-pci,id=devlan,netdev=lan,mac=52:54:00:32:52:3a -netdev bridge,id=wan,br=br-wan,helper=/usr/lib/qemu/qemu-bridge-helper -device virtio-net-pci,id=devwan,netdev=wan,mac=52:54:00:35:04:84 -kernel openwrt-armvirt-32-zImage -drive file=openwrt-armvirt-32-root.ext4,format=raw,if=virtio -append root=/dev/vda rootwait
Но потом обновился до Ubuntu 19.10. Теперь такая команда не работает как нужно - загрузка OpenWRT останавливается на следующем моменте:
[ 0.358902] Concatenating MTD devices:
[ 0.359031] (0): "0.flash"
[ 0.359113] (1): "0.flash"
[ 0.359193] into device "0.flash"
[ 0.378013] rtc-pl031 9010000.pl031: rtc core: registered pl031 as rtc0
[ 0.382185] NET: Registered protocol family 10
[ 0.392266] Segment Routing with IPv6
[ 0.392847] NET: Registered protocol family 17
[ 0.394003] 8021q: 802.1Q VLAN Support v1.8
[ 0.395030] 9pnet: Installing 9P2000 support
[ 0.395488] Registering SWP/SWPB emulation handler
[ 0.403133] rtc-pl031 9010000.pl031: setting system clock to 2020-01-02 08:17:06 UTC (1577953026)
[ 0.415460] Waiting for root device /dev/vda...
Что там поменяли? Как пофиксить? Может кто-нибудь сталкивался?
Кто подскажет комманды, которыми можна быстро репродьюснуть свежие уязвимости:
TCP SACK Panic — Уязвимости ядра, приводящие к удаленному отказу в обслуживании ?
Всем привет.
Хочу проверить перфоманс одного сетевого оборудования - роутера. Соответственно, его нужно попробывать пустить в креш через большое колличество коннектов через нехватку памяти (а там ее 256М). Может кто-нибуть чтото посоветует?
Я, например, доходил до 52К коннектов и 7М свободной памяти. Но проблема в том, что коннекты быстро отпускаются.
Сетап: ноут-клиент, подключенный до LAN роутера, ПК-сервер, подключенный к WAN роутера. И задача в том, что б в таком сетапе создать максимум коннектов, время жизни которых хотелось бы иметь поболее.
Пока что для задачи истпользовал две самописные утилиты - одна на базе iperf, которая открывает 50К портов на сервере, а на клиенте создаются коннекты. И еще одна утилита на пайтоне.
Может есть еще решения?
Всем привет. Не могу понять, почему мой SSD диск, который стоит в ноуте и подключен через SATAII, имеет низкую скорость. Например:
/dev/sda1 - /
/dev/sda2 - /home
/dev/sdb1 - внешний SSD, подключенный через USB2.0 (для сравнения)
root@braivik ~# hdparm -Tt /dev/sda1
/dev/sda1:
Timing cached reads: 1940 MB in 2.00 seconds = 970.16 MB/sec
Timing buffered disk reads: 686 MB in 3.00 seconds = 228.31 MB/sec
root@braivik ~# hdparm -Tt /dev/sda2
/dev/sda2:
Timing cached reads: 1970 MB in 2.00 seconds = 985.86 MB/sec
Timing buffered disk reads: 518 MB in 3.01 seconds = 172.27 MB/sec
root@braivik ~# hdparm -Tt /dev/sdb1
/dev/sdb1:
Timing cached reads: 1936 MB in 2.00 seconds = 968.32 MB/sec
Timing buffered disk reads: 98 MB in 3.02 seconds = 32.45 MB/sec
root@braivik ~#
root@braivik ~# dd if=/dev/zero of=./largefile bs=5M count=1024
1024+0 records in
1024+0 records out
5368709120 bytes (5.4 GB, 5.0 GiB) copied, 24.9505 s, 215 MB/s
root@braivik ~# dd if=./largefile of=/dev/null bs=4k
1310720+0 records in
1310720+0 records out
5368709120 bytes (5.4 GB, 5.0 GiB) copied, 25.8211 s, 208 MB/s
root@braivik ~# hdparm -I /dev/sda | grep -i firmware
Firmware Revision: SBFD00.3
Всем привет!
Есть сервер, где хранятся старые логи dovecot + exim, текстовые файлы сжатые с помощью gzip. Если мне нужно что-то найти, захожу на сервер по ssh и gzrep .... | grep ... | awk .... '{print $1}' ....
Вопрос в другом. Есть на работе технари нижчего уровня, которые сидят на саппорте и в консоль особо не лезут.
Вопрос. Можно ли на такие файлы накатить какой-нибуть full text search engine для кеширования новых файлов для их последующего отображения в веб-морде через какой-нибуть greylog или kibana?
Друзья, ищу облачный менеджер SSH. Что я хочу:
1. Синхронизация всех моих хостов на всех устройствах.
2. Поддержка Windows, Linux, Android.
3. Синхронизация желательно через файл через dropbox или GoogleDrive.
4. Если платное, то чтобы один раз купить, и без этих всех ежемесячных подписок. 🤨
Сейчас наиболее подходящий вариант - https://www.termius.com. Но подписка.
Кто что может посоветовать еще?
Хочу добавить на сервер логгинг событий dovecot в разные файлы. Например, сообщения по удалению писем ( «delete: box=INBOX»,«expunge: box=INBOX», «del=») попадали в лог /var/log/dovecot/dovecot-expunged.log
Коннекты и удаления писем по POP3 /var/log/dovecot/dovecot-pop3.log
И все остальное в /var/log/maillog.
В принципе все реализуется через syslog/rsyslog, но высеры в логи довольно корявые и много лишнего, и не только из dovecot.
Плагин https://wiki.dovecot.org/Plugins/MailLog как бы норм, но не поддерживает логи в разные файлы.
Кто что думает?
Хочу протестировать поиск по почтовому ящику размером ~100 Гб с помощью плагина для dovecot full text search (Solr) и без плагина. Что хочу от теста: получить статистику обращения к диску в двох вариантах. Можна использовать iostat, iotop и так далее.
Теперь вопрос: как собрать i/o статистику в более-менее читабельный вид. В идеале получить статистику так, как делает комманда
time firefox
Есть у нас центральный webmail на roundcube. Через него входят в почту кастомеры. Сам сервер с вебмейлом отдельный, почта хранится на серверах cPanel и на кластере с dovecot+exim4+ldap.
Работает все так: юзер вводит логин+пароль на вебмейле. Вебмейл смотрит МХ-запись домена, и если запись показывает на наши сервера, создает ІМАР-сессию к серверу и человек получает доступ к почте.
Теперь вопрос. Нужно на вебмейл прикрутить функцию смены пароля. Взять, например, стандартный плагин. На cPanel встает, все работает. На кластере через LDAP смена пароля - все ок.
Проблема - как прикрутить смену пароля с отдельного сервера, на котором крутится вебмейл? Проблема в том, что сам протокол IMAP не имеет поддержки смены пароля. Dovecot тоже на прямую не меняет пароль. Конектиться на cPanel через токен и менять через whmapi - вариант, но только для сипанела, для кластера с LDAP не подходит. И ни один драйвер, который идет с плагином, мне не подходит. Может у кого-то есть какие-то идеи?
Всем привет. Есть сервер в связке Exim + Dovecot + cPanel. на нем куча кастомеров с почтой. И нужно сделать real time backup solution для почты.
Как пока вижу сам процесс.
Делается дополнительный сервер, и для каждого ящика создаются папки. И когда на основной сервер приходит почта или уходит, она автоматически должна дуюлироваться на резервном сервере. В основном сервере exim.conf прописано:
backup:
driver = manualroute
domains = !+local_domains
require_files = "+/var/cpanel/domain_keys/private/${sender_address_domain}"
# Exclude null sender messages from relaying via the smarthost
condition = ${if or {{!eq{$sender_address}{}} {!eq{$sender_host_address}{}}}}
transport = remote_smtp
route_list = $domain 255.255.255.255::587
unseen = true
remote_smtp:
driver = smtp
hosts_require_tls = *
interface = ${if exists {/etc/mailips}{${lookup{$sender_address_domain}lsearch*{/etc/mailips}{$value}{}}}{}}
helo_data = ${if exists {/etc/mailhelo}{${lookup{$sender_address_domain}lsearch*{/etc/mailhelo}{$value}{$primary_hostname}}{$primary_hostname}}
dkim_domain = $sender_address_domain
dkim_selector = default
dkim_private_key = "/var/cpanel/domain_keys/private/${dkim_domain}"
dkim_canon = relaxed
headers_add = X-AuthUser: ${if match {$authenticated_id}{.*@.*}\
{$authenticated_id} {${if match {$authenticated_id}{.+}\
{$authenticated_id@$primary_hostname}{$authenticated_id}}}}
#hosts_require_auth = *
Но на данный момент есть проблема — почта с бекап-сервера уходит, но не сохраняется. Как организавать бекап-сервер так, что б он был просто как хранилище для ящиков, куда приходят входящие и отправленные письма? Так сказать принцип работы master - slave. На резервном сервере установлен exim. И как правильно пересылать входящую почту, етот блок не работает корректно:
redir_b:
driver = manualroute
domains = *
transport = remote_smtp
route_list = * 255.255.255.255::587
unseen
Всем привет. Есть такая проблема. Есть сервера, на них кроме хостинга, крутится почта в связке Exim + Dovecot. А так же всем управляет cPanel.
И, собственно, вот в чем проблема. Хочу настроить авторизацию через Dovecot Master Password, что б саппорту не напрягаться с паролями. Что ето такое - https://wiki2.dovecot.org/Authentication/MasterUsers.
И проблема в том, что не работает под cpanel. Настраивал под чистым сервером - 15 минут и все работает. Под cpanel нихера.
По логам, до самого dovecot даже не доходит. Логин фейлится на самой панели входа.
Сам же dovecot на сервере с cpanel настроен нормально и работает:
[root@webcloud1 dovecot]# doveadm auth test test@domain.mk.ua/master@domain.mk.ua
Password:
passdb: test@domain.mk.ua/master@domain.mk.ua auth succeeded
extra fields:
user=test@domain.mk.ua
original_user=master@domain.mk.ua
auth_user=master@domain.mk.ua
# telnet localhost 143
Trying 127.0.0.1...
Connected to localhost.
Escape character is '^]'.
* OK [CAPABILITY IMAP4rev1 LITERAL+ SASL-IR LOGIN-REFERRALS ID ENABLE IDLE NAMESPACE STARTTLS AUTH=PLAIN AUTH=LOGIN] Dovecot ready.
1 login test@domain.mk.ua/master@domain.mk.ua unencrypted password
1 OK [CAPABILITY IMAP4rev1 LITERAL+ SASL-IR LOGIN-REFERRALS ID ENABLE IDLE SORT SORT=DISPLAY THREAD=REFERENCES THREAD=REFS THREAD=ORDEREDSUBJECT MULTIAPPEND URL-PARTIAL CATENATE UNSELECT CHILDREN NAMESPACE UIDPLUS LIST-EXTENDED I18NLEVEL=1 CONDSTORE QRESYNC ESEARCH ESORT SEARCHRES WITHIN CONTEXT=SEARCH LIST-STATUS BINARY MOVE NAMESPACE NOTIFY COMPRESS=DEFLATE QUOTA] Logged in
Через форму входа в почту cpanel не пропускает: (https://ibb.co/cZ0Fj6, да, разделитель и мастер логин уже поменял на скриншоте). Не работает.
Думаю, где-то там привязка к regexp'y и чекалка чекает форму, и, как результат, отбрасывает ее как неверный логин.
Короче, я не знаю как победить ету дичь. Может кто-то в курсе?
Всем привет. Есть сервер на Centos, на котором поднято exim + SA, проверяющий входящую почту. Но теперь есть необходимость проверять и исходящюю. Но не всю, так как такая процедура грузит сервачки.
Что я сделал. Написал скрипт, находящий спамеров по auth_id, и от каждого из них рандомно берет по 10 Message-ID.
И вот суть проблемы. Через exim можна глянуть header (и то не чистый, а со служебной информацией. SA так не любит) и body. К сожелению, полный исходный текст письма (header+body) так и не придумал как добыть по Message-ID, что б скормить его spamc.
Так от и суть вопроса: как мне по Message-ID получить raw-текст письма, которое в очереди исходящих? Или же где его найти локально в виде *.eml файла?
В моей федоре пропало ускорение графики. И все печально, так как интерфейс тормозит.
$ cat /etc/redhat-release
Fedora release 23 (Twenty Three)
glxgears выдает такое (да, понимаю, что не бенчмарк, но все-же показатель):
$ glxgears
Running synchronized to the vertical refresh. The framerate should be
approximately the same as the monitor refresh rate.
299 frames in 5.0 seconds = 59.723 FPS
299 frames in 5.0 seconds = 59.630 FPS
^C
$ lspci | grep VGA
01:00.0 VGA compatible controller: Advanced Micro Devices, Inc. [AMD/ATI] RV710/M92 [Mobility Radeon HD 4530/4570/545v]
Что я упустил?
Возможно такой вопрос уже задавали, но все же. Поставил себе убунту. Ранше стояла генту, там я сделал так, чтоб на моей старой видеокарточке под свободныим драйверами нормально работали игры со стима, такие как ХЛ2. Так как на убунте всего месяц, ткните меня носом на хороший мануал, как запустить ХЛ2 на свободных драйверах.
Видео у меня такое:
keed@braivik ~ $ lspci | grep VGA
01:00.0 VGA compatible controller: Advanced Micro Devices, Inc. [AMD/ATI] RV710/M92 [Mobility Radeon HD 4530/4570/545v]
glxgears не очень радует:
266 frames in 5.0 seconds = 53.133 FPS
Итак, как мне поступить, что б все работало? Думаю на убунте сделать ето проще, чем на генте.
Нужен небольшой, порядка 4-5 дюймов экранчик со встроеным аккумулятором и входом для тюльпана на видео. Цель - просмотр и настройка видеорегистраторов в автобусах, где негде нормально запитаться. Что посоветуете?
Добрый день. Со сквидом раньше не приходилось иметь дело. На одной компании этот проксик стоит, я смотрю на squid-reports, а там отображается непойми что. Дело в том, что названия рабочих машин выбиралось автоматом и где чья не понятно. Названия машин я поправил на интуитивно понятные, но в squid-reports они так и отображаются по старому. Пробывал чистить кэш с помощью команды squid -z и удалением своп-файлов. Ничего не поменялось. ЧЯДНТ?
Снес каталист, поставил свободный радеон. В результате не запускается стим, вываливается при запуске с сообщением:
OpenGL GLX context is not using direct rendering, which may cause performance problems.
For more information visit https://support.steampowered.com/kb_article.php?ref=9938-EYZB-7457.
$ uname -rm
3.10.19 x86_64
$ lspci | grep VGA
01:00.0 VGA compatible controller: Advanced Micro Devices [AMD] nee ATI RV710 [Mobility Radeon HD 4500/5100 Series]
x11-base/xorg-server-1.12.4-r2
x11-base/xorg-x11-7.4-r2
x11-base/xorg-drivers-1.14
media-libs/mesa-9.1.6
Нашей компании нужно закупить СМС. Штук так пол миллиона. Гуглил, связывался с компаниями - у всех от 12 и выше копеек за штуку (украинских копеек).
Логично, что сами эти компании есть перекупщиками, значит есть место, где эти СМС можно купить еще дешевле. От только никак не могу выйти на прямых операторов СМС-шлюза.
Отправлять планирую через свой скрипт, который работает с SMPP протоколом, так что всякие дополнительные удобства в ввиде админок и тп не нужно. Главное - цена. Никто не встречал таких поставщиков?
Обновил ядро с 3.5 до 3.10.19. Также обновил иксы. В результате - невозможность собрать fglrx.
Да, согласен, что карточка у меня не самая новая: Mobitity Radeon HD4500/5100 (на базе RV510). Поэтому ставлю ati-drivers-13.1_978-pre из ветки legacy. Раньше работали, теперь компиляция отваливается с emake failed. Свободные так же не работают: no screens found и все.
Как я понял, что-то с этими драйверами стало несовместимо по версиям - либо ядро, либо х-сервер. Так где загвоздка? Версии:
xorg-server: 1.12.4-r2
xorg-x11: 7.4-r2
kernel: 3.10.19
следующие → |