Как через helm upgrade передать в контейнер новую переменную окружения?
Я пробую
helm upgrade ... --set VAR=$VALUE
Потом захожу внуть контейнера, делаю env и не вижу там желаемой переменной VAR.
Где я что-то недопонимаю?
Я пробую
helm upgrade ... --set VAR=$VALUE
Потом захожу внуть контейнера, делаю env и не вижу там желаемой переменной VAR.
Где я что-то недопонимаю?
Лог Постфикса:
postfix/smtps/smtpd[3213]: connect from 93-120-185-166.dynamic.mts-nn.ru[93.120.185.166]
postfix/smtps/smtpd[3213]: 3E9B2FA2B71: client=93-120-185-166.dynamic.mts-nn.ru[93.120.185.166], sasl_method=PLAIN, sasl_username=test@vasya.ru
postfix/cleanup[3223]: 3E9B2FA2B71: message-id=<1717ae6c-8f88-4c92-8932-99ae95d4149d@vasya.ru>
postfix/qmgr[2218]: 3E9B2FA2B71: from=<test@vasya.ru>, size=584, nrcpt=1 (queue active)
postfix/qmgr[2218]: warning: connect to transport private/scan: No such file or directory
postfix/error[3224]: 3E9B2FA2B71: to=<test-yte6t7r8y@srv1.mail-tester.com>, relay=none, delay=0.06, delays=0.05/0.01/0/0.01, dsn=4.3.0, status=deferred (mail transport unavailable)
dovecot: imap(test@vasya.ru)<3167><ZMLI8jIsosJdeLmm>: Disconnected: Logged out in=1055 out=3644 deleted=0 expunged=0 trashed=0 hdr_count=2 hdr_bytes=477 body_count=0 body_bytes=0
postfix/smtps/smtpd[3213]: disconnect from 93-120-185-166.dynamic.mts-nn.ru[93.120.185.166] ehlo=1 auth=1 mail=1 rcpt=1 data=1 quit=1 commands=6
sudo cat /etc/postfix/master.cf
smtp inet n - y - - smtpd
-o content_filter=scan:[127.0.0.1]:10026
pickup unix n - y 60 1 pickup
cleanup unix n - y - 0 cleanup
qmgr unix n - n 300 1 qmgr
#qmgr unix n - n 300 1 oqmgr
tlsmgr unix - - y 1000? 1 tlsmgr
rewrite unix - - y - - trivial-rewrite
bounce unix - - y - 0 bounce
defer unix - - y - 0 bounce
trace unix - - y - 0 bounce
verify unix - - y - 1 verify
flush unix n - y 1000? 0 flush
proxymap unix - - n - - proxymap
proxywrite unix - - n - 1 proxymap
smtp unix - - y - - smtp
relay unix - - y - - smtp
-o syslog_name=postfix/$service_name
showq unix n - y - - showq
error unix - - y - - error
retry unix - - y - - error
discard unix - - y - - discard
local unix - n n - - local
virtual unix - n n - - virtual
lmtp unix - - y - - lmtp
anvil unix - - y - 1 anvil
scache unix - - y - 1 scache
postlog unix-dgram n - n - 1 postlogd
uucp unix - n n - - pipe
flags=Fqhu user=uucp argv=uux -r -n -z -a$sender - $nexthop!rmail ($recipient)
submission inet n - n - - smtpd
-o content_filter=scan:[127.0.0.1]:10026
-o smtpd_tls_security_level=may
-o smtpd_sasl_auth_enable=yes
-o smtpd_sasl_type=dovecot
-o smtpd_sasl_path=/var/spool/postfix/private/auth
-o smtpd_sasl_security_options=noanonymous
-o smtpd_sasl_local_domain=$myhostname
smtps inet n - n - - smtpd
-o content_filter=scan:[127.0.0.1]:10026
-o syslog_name=postfix/smtps
-o smtpd_tls_wrappermode=yes
-o smtpd_sasl_auth_enable=yes
-o smtpd_client_restrictions=permit_sasl_authenticated,reject
dovecot unix - n n - - pipe
flags=DRhu user=vmail:vmail argv=/usr/lib/dovecot/deliver -d ${recipient}
127.0.0.1:10027 inet n - n - 16 smtpd
-o content_filter=
-o receive_override_options=no_unknown_recipient_checks,no_header_body_checks
-o smtpd_helo_restrictions=
-o smtpd_client_restrictions=
-o smtpd_sender_restrictions=
-o smtpd_recipient_restrictions=permit_mynetworks,reject
-o mynetworks_style=host
-o smtpd_authorized_xforward_hosts=127.0.0.0/8
Где ошибка?
Настроил почтовый сервер по этой инструкции: https://www.dmosk.ru/instruktions.php?object=mailserver-ubuntu
Остановился пока на пункте 6.
Создал ящик и решил проверить возможность принимать почту. Подключился к ящику с помощью Thunderbird, всё ОК. Отправил на тестовый ящик письмо с mail.ru и вот уже час жду, когда оно придёт.
Куда смотреть?
Хочу создать программный raid1 и заметил, что у меня могут меняться имена дисков, т.е. сейчас они у меня sda и sdc, а после перезагрузки могут получить другие имена.
Если я сейчас сделаю
sudo mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sda1 /dev/sdc1
у меня массив не развалится при очередной перезагрузке?
Посоветуйте, как мне создать удалённую шару с доступом через интернет следующего вида:
/
/dir1 владелец user1 права 700
/dir2 владелец user2 права 700
...
/dirN владелец userN права 700
/общая владелец admin права 777
Дополнительные пожелания: без VPN, монтирование к винде и чтобы создание пользователей, добавление директорий и раздача прав происходила без правки конфигов, т.е. чтобы админ мог мышкой через менюшки всё сделать.
Пробовал сделать это через TrueNAS и WebDAV, но у меня не получилось дать доступ к корневой шаре нескольким пользователям с разными логинами.
Спасибо!
Потребовалось мне организовать удалённую шару по протоколу WebDAV.
Нужно, чтобы в корень могли писать все и у каждого пользователя в корне была индивидуальная папка с доступом только для него.
Накатил TrueNAS, включил WebDAV, создал пул shara. Пул получил владельца webdav:webdav.
Создал пользователя и закинул его в группу webdav.
Подключаюсь http://ip:port/shara, с логином webdav винда подключается, а с логином нового пользователя входить не хочет.
Права доступа к папке: Владелец: rwx Группа: rwx Другие: —
Почему с пользователем из группы webdav даже читать эту шару не даёт?
Создал ВМ на хосте ESXI 6.7.0. Загрузка ВМ с EFI. Сама машина стартует нормально, но при попытке пробросить в неё видеокарту Nvidia, отказывается стартовать.
Вот выборка с ошибками из лога:
cat vmware.log|grep Error
2024-02-16T07:26:48.315Z| vmx| I125: FILE: FileCreateDirectoryEx: Failed to create /tmp. Error = 17
2024-02-16T07:26:48.315Z| vmx| I125: FILE: FileCreateDirectoryEx: Failed to create /tmp/vmware-root. Error = 17
2024-02-16T07:26:48.318Z| vmx| I125: Vix: [mainDispatch.c:4239]: VMAutomation_ReportPowerOpFinished: statevar=0, newAppState=1870, success=1 additionalError=0
2024-02-16T07:26:48.318Z| vmx| I125: Vix: [mainDispatch.c:4239]: VMAutomation_ReportPowerOpFinished: statevar=1, newAppState=1873, success=1 additionalError=0
2024-02-16T07:26:48.318Z| vmx| I125: Vix: [mainDispatch.c:4239]: VMAutomation_ReportPowerOpFinished: statevar=2, newAppState=1877, success=1 additionalError=0
2024-02-16T07:26:48.318Z| vmx| I125: Vix: [mainDispatch.c:4239]: VMAutomation_ReportPowerOpFinished: statevar=3, newAppState=1881, success=1 additionalError=0
2024-02-16T07:26:48.336Z| vmx| I125: Vix: [mainDispatch.c:4239]: VMAutomation_ReportPowerOpFinished: statevar=1, newAppState=1873, success=1 additionalError=0
2024-02-16T07:26:48.336Z| vmx| I125: Vix: [mainDispatch.c:4239]: VMAutomation_ReportPowerOpFinished: statevar=2, newAppState=1878, success=1 additionalError=0
2024-02-16T07:26:48.336Z| vmx| I125: FILE: FileCreateDirectoryEx: Failed to create /tmp. Error = 17
2024-02-16T07:26:48.336Z| vmx| I125: FILE: FileCreateDirectoryEx: Failed to create /tmp/vmware-root. Error = 17
2024-02-16T07:26:48.351Z| vmx| I125: Vix: [mainDispatch.c:4239]: VMAutomation_ReportPowerOpFinished: statevar=0, newAppState=1871, success=1 additionalError=0
2024-02-16T07:26:48.351Z| vmx| I125: Vix: [mainDispatch.c:4239]: VMAutomation_ReportPowerOpFinished: statevar=1, newAppState=1873, success=1 additionalError=0
2024-02-16T07:26:56.958Z| vmx| I125: Vix: [mainDispatch.c:4239]: VMAutomation_ReportPowerOpFinished: statevar=1, newAppState=1873, success=1 additionalError=0
2024-02-16T07:26:56.959Z| vmx| I125: Vix: [mainDispatch.c:4239]: VMAutomation_ReportPowerOpFinished: statevar=0, newAppState=1870, success=1 additionalError=0
2024-02-16T07:26:56.959Z| vmx| I125: Vix: [mainDispatch.c:4239]: VMAutomation_ReportPowerOpFinished: statevar=0, newAppState=1870, success=0 additionalError=0
2024-02-16T07:26:56.959Z| vmx| I125: Vix: [mainDispatch.c:4278]: Error VIX_E_FAIL in VMAutomation_ReportPowerOpFinished(): Unknown error
2024-02-16T07:26:56.959Z| vmx| I125: Vix: [mainDispatch.c:4239]: VMAutomation_ReportPowerOpFinished: statevar=0, newAppState=1870, success=1 additionalError=0
Смущает Unknown error в конце.
Собственно, вопроса два:
1. Все ли видеокарты нормально пробрасываются в ВМ?
2. Можно ли из вари вытрясти какие-то дополнительные сведения/логи по этой проблеме или кто-то на этом этапе уже может подсказать решение?
Спасибо.
У меня есть контейнер, собранный не мной. Я пытаюсь прикрутить к нему healthcheck в docker-compose:
healthcheck:
test: ["CMD", "curl", "-f", "http://127.0.0.1"]
interval: 30s
timeout: 10s
retries: 3
В глобальных переменных гитлаба задал переменные IMAGENAME и DATABASE.
Хочу использовать их в docker-compose:
services:
serv:
image: "$IMAGENAME"
environment:
- ADDR=$DATABASE
И получаю уведомления:
The IMAGENAME variable is not set. Defaulting to a blank string.
The DATABASE variable is not set. Defaulting to a blank string.
Насколько я понимаю, docker-compose пытается использовать переменные сервера, на котором разворачивается контейнер, а там они не определены.
А как в docker-compose использовать глобальные переменные гитлаба?
Собрал nginx в контейнере docker debian:latest
Хочу его автозапускать без systemd
Создал /etc/rc.local
/usr/sbin/nginx
Сделал ему chmod a+x /etc/rc.local
Не стартует. В логах nginx пусто.
Если зайти в конейнер и запустить /usr/sbin/nginx, то nginx запустится, т.е. он нормально собрался.
Это какой-то неправильный путь для Дебиана через rc.local или я что-то неправильно делаю?
Есть два контейнера с nginx, в cont1 на 80 порту, в cont2 на 8080.
sudo docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS
aaa5cb017bf6 cont1 "/docker-entrypoint.…" 35 minutes ago Up 35 minutes 0.0.0.0:80->80/tcp, :::80->80/tcp
509babab488a cont2 "/docker-entrypoint.…" About an hour ago Up About an hour 80/tcp, 0.0.0.0:8080->8080/tcp, :::8080->8080/tcp
Откуда у cont2 берётся 80/tcp и что это за порт, внешний или внутренний? Внешним он быть не может, потому что на 80 порту уже висит cont1. Внутренним он тоже не является, внутри контейнера на 80 порту никого нет.
/ # netstat -nlp
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 0.0.0.0:8080 0.0.0.0:* LISTEN 1/nginx: master pro
tcp 0 0 127.0.0.11:35285 0.0.0.0:* LISTEN -
udp 0 0 127.0.0.11:60959 0.0.0.0:*
Контейнеры запускаются через docker-compose, у первого порты 80:80, у второго 8080:8080.
Откуда у второго взялся 80 порт?
Необходимо запускать пайплайн на разные серверы в зависимости от ветки master или dev. Если я запилю вот такую конструкцию:
stages:
- build1
- build2
- push
- deploy
build1:
stage: build1
only:
- master
tags:
- srv1
build2:
stage: build2
only:
- dev
tags:
- srv2
Это будет не очень криво? Или это вообще не так делается? Спасибо.
Есть виртуальный диск sda на 500G, на нём создана sda3 на 435.7G, а на sda3 lvm том на 198G. Подскажите, как мне увеличить размер тома lvm без создания нового PV?
lsblk
sda 8:0 0 500G 0 disk
├─sda1 8:1 0 1M 0 part
├─sda2 8:2 0 2G 0 part /boot
└─sda3 8:3 0 435.7G 0 part
└─ubuntu--vg-ubuntu--lv 253:0 0 198G 0 lvm /
sudo pvdisplay
--- Physical volume ---
PV Name /dev/sda3
VG Name ubuntu-vg
PV Size <198.00 GiB / not usable 0
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 50687
Free PE 0
Allocated PE 50687
sudo vgdisplay
--- Volume group ---
VG Name ubuntu-vg
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 5
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 1
Act PV 1
VG Size <198.00 GiB
PE Size 4.00 MiB
Total PE 50687
Alloc PE / Size 50687 / <198.00 GiB
Free PE / Size 0 / 0
Мне вроде бы надо сначала сделать pvresize, но я не пойму, что у неё будет в аргументах?
Спасибо.
Жил-был raid1, один диск умер физически и его убрали. Теперь mdadm -D /dev/md1 выдаёт следующее:
/dev/md1:
Version : 0.90
Creation Time : Fri Feb 11 15:42:10 2022
Raid Level : raid1
Array Size : 14155712 (13.50 GiB 14.50 GB)
Used Dev Size : 14155712 (13.50 GiB 14.50 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Fri Oct 14 11:05:42 2022
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
UUID : e71fccc3:264b1801:96fc04a8:108a4af7
Events : 0.49981
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 1 1 active sync /dev/sda1
У меня вопрос про предпоследнюю строку, где указано, что вроде как есть removed диск. С этим нужно что-то делать? Надо как-то убирать из рейда этот removed диск?
Если выполнить mdadm /dev/md1 -r detached, то команда отрабатывает, но этот removed в рейде остаётся.
Мне достаточно просто удалить этот линк из файлов конфигурации (использую пакет quagga), рестартовать демоны и всё?
Или требуются ещё какие-то действия? Может кого-то уведомлять надо? Вопрос скорее не технический, а административный.
В /var/log/exim/panic.log постоянно появляются ошибки вида:
2022-09-09 10:30:28 tainted search query is not properly quoted (ACL drop, /etc/exim/exim.conf 321): SELECT domain FROM domains WHERE domain='abcd.ru' AND (type='LOCAL' OR type='VIRTUAL')
Доменные имена abcd.ru каждый раз разные.
В exim.conf в строке 321:
drop
message = Rejected: source blacklisted
condition = ${if match_domain{$sender_helo_name}{+local_domains}}
condition = INSERT_BF_IP
Куда копать???
Сейчас обновлял CentOS 7.9, который, скорее всего, никто не обновлял с момента установки. Слетели (сменились) пользователи, под которыми должны были стартовать mysql, exim, clamav, соответственно под новыми пользователями недоступны их рабочие директории.
Подскажите, как определить и где поменять пользователей, под которыми стартуют сервисы в systemd?
Имею ноут Acer ES1-111M. На нём есть wi-fi адаптер Broadcom 43132:
lspci -nn -d 14e4:
02:00.0 Network controller [0280]: Broadcom Inc. and subsidiaries BCM43142 802.11b/g/n [14e4:4365] (rev 01)
lspci -knn | grep Net -A2
02:00.0 Network controller [0280]: Broadcom Inc. and subsidiaries BCM43142 802.11b/g/n [14e4:4365] (rev 01)
Subsystem: Foxconn International, Inc. BCM43142 802.11b/g/n [105b:e07e]
Kernel driver in use: wl
ifconfig
enp3s0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.1.132 netmask 255.255.255.0 broadcast 192.168.1.255
inet6 fe80::c654:44ff:fee7:8bf3 prefixlen 64 scopeid 0x20<link>
ether c4:54:44:e7:8b:f3 txqueuelen 1000 (Ethernet)
RX packets 16517 bytes 5965702 (5.6 MiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 7470 bytes 1426063 (1.3 MiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10<host>
loop txqueuelen 1 (Local Loopback)
RX packets 16 bytes 1326 (1.2 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 16 bytes 1326 (1.2 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
Куда копать?
Раз в полчаса в vmkernel.log появляются такие ошибки:
2021-02-15T07:43:24.382Z cpu7:34060)NMP: nmp_ThrottleLogForDevice:2458: Cmd 0x85 (0x412e80890cc0, 34400) to dev "naa.600605b006a7a53018524b0457b61dd6" on path "vmhba1:C2:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2021-02-15T07:43:24.382Z cpu7:34060)ScsiDeviceIO: 2369: Cmd(0x412e80890cc0) 0x4d, CmdSN 0x193 from world 34400 to dev "naa.600605b006a7a53018524b0457b61dd6" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0.
2021-02-15T07:43:24.382Z cpu7:34060)ScsiDeviceIO: 2369: Cmd(0x412e80890cc0) 0x1a, CmdSN 0x194 from world 34400 to dev "naa.600605b006a7a53018524b0457b61dd6" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2021-02-15T07:43:24.596Z cpu7:34060)NMP: nmp_ThrottleLogForDevice:2458: Cmd 0x85 (0x412e80890cc0, 34400) to dev "naa.600605b006a7a53027b039db2566d23f" on path "vmhba1:C2:T1:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2021-02-15T07:43:24.597Z cpu7:34060)ScsiDeviceIO: 2369: Cmd(0x412e80890cc0) 0x4d, CmdSN 0x196 from world 34400 to dev "naa.600605b006a7a53027b039db2566d23f" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0.
2021-02-15T07:43:24.597Z cpu7:34060)ScsiDeviceIO: 2369: Cmd(0x412e80890cc0) 0x1a, CmdSN 0x197 from world 34400 to dev "naa.600605b006a7a53027b039db2566d23f" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
Переведите, плз, что ей не нравится? Все виртуалки вроде нормально работают.
Не добавляется USB-ключ в VMware ESXi. Сначала добавляю к машине USB контроллер. Пробовал и xHCI и EHCI+UHCI, и вместе и по отдельности, всё нормально добавляется. Сохраняю, нажимаю опять Add и поле USB device у меня неактивное.
Если сделать lsusb -t, ключик виден как 14a8:0001.
ESXi у меня древний, 5.1.0, 2323236, версия VM - 8.
Подскажите, что можно сделать?
Может из консоли его можно как-то добавить?
следующие → |