LINUX.ORG.RU

Сообщения santic

 

Alpine Linux + LiLO - не монтируется корень

Форум — Linux-install

Всем доброго дня!

Имеется странный кейс попытки запуска Alpine Linux с помощью загрузчика Lilo.

Что имеется:

  1. Виртуалка с установленным Alpine Linux
  2. Конфигурация дисков:
/ # lsblk -f
NAME   FSTYPE   FSVER LABEL                    UUID                                 FSAVAIL FSUSE% MOUNTPOINTS
loop0  squashfs                                                                                    
sda                                                                                                
├─sda1 ext4                                    8b5433cb-fbb8-4096-833e-0cc0e99cf2f7  224.4M    10% /boot
├─sda2 swap                                    7e2f2e56-350f-4f5e-84ef-e12baeab2056                
└─sda3 ext4                                    01992032-c8af-4c84-9853-4e5c5bac1ecc   13.5G     2% /

Device  Boot StartCHS    EndCHS        StartLBA     EndLBA    Sectors  Size Id Type
/dev/sda1 *  1,0,1       300,63,32         2048     616447     614400  300M 83 Linux
/dev/sda2    301,0,1     1023,63,32      616448    2523135    1906688  931M 82 Linux swap
/dev/sda3    1023,63,32  1023,63,32     2523136   33554431   31031296 14.7G 83 Linux

  1. Установленный lilo, удалённый syslinux:
/ # ls -lR /boot
/boot:
total 28044
-rw-r--r--    1 root     root           380 Apr 26 19:03 cool.sh
-rw-------    1 root     root      16693257 Apr 27 10:32 initramfs-lts
-r--r--r--    1 root     root         69632 Apr  7 15:00 ldlinux.sys
drwxr-xr-x    3 root     root          1024 Apr 26 19:52 lilo
-rw-------    1 root     root         50688 Apr 27 19:55 map
-rw-r--r--    1 root     root      11899904 Apr  4 11:34 vmlinuz-lts

/boot/lilo:
total 52
-rw-r--r--    1 root     root           512 Apr 26 19:36 boot.0800
drwxr-xr-x    2 root     root          1024 Apr 26 19:16 gfx
-rw-------    1 root     root         50688 Apr 26 19:52 map

/boot/lilo/gfx:
total 257
-rw-r--r--    1 root     root        113162 Nov 12 12:12 coffee.bmp
-rw-r--r--    1 root     root           426 Nov 12 12:12 coffee.dat
-rw-r--r--    1 root     root         22560 Nov 12 12:12 debian-de.bmp
-rw-r--r--    1 root     root           426 Nov 12 12:12 debian-de.dat
-rw-r--r--    1 root     root         22466 Nov 12 12:12 debian.bmp
-rw-r--r--    1 root     root           423 Nov 12 12:12 debian.dat
-rw-r--r--    1 root     root         31628 Nov 12 12:12 debianlilo.bmp
-rw-r--r--    1 root     root           435 Nov 12 12:12 debianlilo.dat
-rw-r--r--    1 root     root         22578 Nov 12 12:12 inside.bmp
-rw-r--r--    1 root     root           432 Nov 12 12:12 inside.dat
-rw-r--r--    1 root     root          6878 Nov 12 12:12 onlyblue.bmp
-rw-r--r--    1 root     root           424 Nov 12 12:12 onlyblue.dat
-rw-r--r--    1 root     root         33192 Nov 12 12:12 tuxlogo.bmp
-rw-r--r--    1 root     root           423 Nov 12 12:12 tuxlogo.dat

Конфиг lilo:

/ # cat /etc/lilo/lilo.conf
# /etc/lilo/lilo.conf

### LILO global section ###

# Good assumptions for a modern (post-1998) system
compact
large-memory
lba32

# Menu configuration
install = bmp
bitmap = /boot/lilo/gfx/tuxlogo.bmp

# Boot the first entry automatically in 10 seconds
prompt
timeout = 50

# These will be configured automatically by liloconfig(8)
boot = "/dev/sda"
#root = ""
map = /boot/map

### LILO per-image section ###
image = /boot/vmlinuz-lts
        label = "Alpine Linux"
        root = /dev/sda3
        #root = /dev/disk/by-uuid/01992032-c8af-4c84-9853-4e5c5bac1ecc
        #append = "root=/dev/sda3"
        initrd = /boot/initramfs-lts
        read-write

Ну и, конечно же, fstab:

/ # cat /etc/fstab
UUID=01992032-c8af-4c84-9853-4e5c5bac1ecc       /       ext4    rw,relatime 0 1
UUID=8b5433cb-fbb8-4096-833e-0cc0e99cf2f7       /boot   ext4    rw,relatime 0 2
UUID=7e2f2e56-350f-4f5e-84ef-e12baeab2056       swap    swap    defaults        0 0
/dev/cdrom      /media/cdrom    iso9660 noauto,ro 0 0
/dev/usbdisk    /media/usb      vfat    noauto  0 0
tmpfs   /tmp    tmpfs   nosuid,nodev    0       0

В дополнение

/ # cat /etc/mkinitfs/mkinitfs.conf 
features="ata base ide scsi usb virtio ext4"

Проблема заключается в том, что в такой конфигурации у меня загрузчик подхватывается, ядро и initramfs (как я понял) в память загружаютя. А вот при попытке подмонтировать корень выскакивает ошибка и рекавери шелл:

mount: mounting 803 on /sysroot failed: No such file or directory

При попытке подмонтировать корневой раздел из рекавери получаю ошибку выше. Как объяснено в гугле - это из-за того, что ramfs загружена в память в режиме чтения.

Где я ошибься и куда копать, чтобы загрузить ОС? Делать mkinitfs с указанием корневого раздела? Применять опцию Append?

 , , , ,

santic
()

Перенести Alpine Linux на другой диск с LVM

Форум — Admin

Всем привет!

Имеется установленный Alpine Linux на сервер со следующей конфигурацией дисков:

hypervisor:~$ lsblk
NAME                                  MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
sda                                     8:0    0 838.3G  0 disk 
├─lxd--vg-lxd_pool_tmeta              253:4    0   108M  0 lvm  
│ └─lxd--vg-lxd_pool-tpool            253:6    0 838.1G  0 lvm  
│   ├─lxd--vg-lxd_pool                253:7    0 838.1G  1 lvm  
│   ├─lxd--vg-containers_tst    253:8    0 407.3G  0 lvm  /var/lib/lxd/storage-pools/lxd_pool/containers/tst
│   ├─lxd--vg-containers_test         253:9    0   9.3G  0 lvm  /var/lib/lxd/storage-pools/lxd_pool/containers/test
│   └─lxd--vg-containers_web----proxy 253:10   0   9.3G  0 lvm  /var/lib/lxd/storage-pools/lxd_pool/containers/web-proxy
└─lxd--vg-lxd_pool_tdata              253:5    0 838.1G  0 lvm  
  └─lxd--vg-lxd_pool-tpool            253:6    0 838.1G  0 lvm  
    ├─lxd--vg-lxd_pool                253:7    0 838.1G  1 lvm  
    ├─lxd--vg-containers_tst    253:8    0 407.3G  0 lvm  /var/lib/lxd/storage-pools/lxd_pool/containers/tst
    ├─lxd--vg-containers_test         253:9    0   9.3G  0 lvm  /var/lib/lxd/storage-pools/lxd_pool/containers/test
    └─lxd--vg-containers_web----proxy 253:10   0   9.3G  0 lvm  /var/lib/lxd/storage-pools/lxd_pool/containers/web-proxy
sdb                                     8:16   0 558.9G  0 disk 
├─kvm--vg-alpine--router              253:0    0     2G  0 lvm  
├─kvm--vg-alpine--router--clone       253:1    0     2G  0 lvm  
├─kvm--vg-debian12--test              253:2    0    20G  0 lvm  
└─kvm--vg-test--vm                    253:3    0    20G  0 lvm  
sdc                                     8:32   1  29.1G  0 disk 
├─sdc1                                  8:33   1   300M  0 part /boot
├─sdc2                                  8:34   1     4G  0 part [SWAP]
└─sdc3                                  8:35   1  24.8G  0 part /var/hdd.log
                                                                /
sr0                                    11:0    1  1024M  0 rom  
zram0                                 252:0    0  1000M  0 disk /var/log

ОС стоит на диске sdc (это SD-карта).

Задача перенести ОС на диск sda или sdb.

Какой план у меня вырисовывается:

  1. Временно смигрировать lv-разделы, например, с диска sdb на диск sda;
  2. Всё на диске sdb уничтожить;
  3. Создать boot-раздел, создать pv, vg под коревой раздел;
  4. Как-то перенести ОС;
  5. Создать VG для перенесенных в п.1 разделов и мигрировать их обратно.

Вопрос: куда копать, чтобы выполнить п.4 - перенести ОС с SDкарты на другой диск в описанной выше конфигурации?

 , , ,

santic
()

Порядок запуска сервисов в OpenRC

Форум — Admin

Всех приветствую!

Пишу для openrc init скрипты для запуска сервисов Open Nebula.

Вот они слева направо:

opennebula

#!/sbin/openrc-run

name=$RC_SVCNAME
description="OpenNebula management"
command="/usr/bin/oned"
command_args="-f"
command_user="oneadmin:oneadmin"
pidfile="/run/one/${RC_SVCNAME}.pid"
supervisor="supervise-daemon"

start_pre() {
        /bin/mkdir -p /var/log/one
        /bin/mkdir -p /var/lock/one
        /bin/mkdir -p /run/one
        /bin/chown oneadmin:oneadmin -R /var/log/one /run/one /var/lock/one
        /usr/sbin/logrotate -s /tmp/logrotate.state -f /etc/logrotate.d/opennebula.logrotate
}

depend() {
        need mariadb
        after syslog networking localmount netmount
        before opennebula-scheduler opennebula-hem
        want opennebula-scheduler opennebula-hem opennebula-showback opennebula-ssh-agent opennebula-ssh-socks-cleaner
}

start() {
   ebegin "Starting $RC_SVCNAME"
   start-stop-daemon --background \
        --exec $command \
        --make-pidfile --pidfile $pidfile --user $command_user \
        --start -- $command_args
   eend $?
}

stop() {
   ebegin "Stopping $RC_SVCNAME"
   start-stop-daemon --stop \
        --retry TERM/10/KILL/10 \
        --exec $command \
        --pidfile $pidfile --user $command_user
   eend $?
}

stop_post() {
    /bin/rm -f /var/lock/one/one
    /usr/share/one/follower_cleanup
}

opennebula-hem

#!/sbin/openrc-run

name=$RC_SVCNAME
description="OpenNebula Hook Execution Service"
command="/usr/bin/ruby /usr/lib/one/onehem/onehem-server.rb"
command_user="oneadmin:oneadmin"
pidfile="/run/one/${RC_SVCNAME}.pid"
supervisor="supervise-daemon"

depend() {
        after syslog networking netmount opennebula
}

start() {
   ebegin "Starting $RC_SVCNAME"
   start-stop-daemon --background \
        --exec $command \
        --make-pidfile --pidfile $pidfile --user $command_user \
        --start
   eend $?
}

stop() {
   ebegin "Stopping $RC_SVCNAME"
   start-stop-daemon --stop \
        --exec $command \
        --pidfile $pidfile --user $command_user
   eend $?
}

opennebula-scheduler

#!/sbin/openrc-run

name=$RC_SVCNAME
description="OpenNebula Cloud Scheduler Daemon"
command="/usr/bin/mm_sched"
command_user="oneadmin:oneadmin"
pidfile="/run/one/${RC_SVCNAME}.pid"
supervisor="supervise-daemon"

depend() {
        after syslog networking netmount opennebula
}

start() {
   ebegin "Starting $RC_SVCNAME"
   start-stop-daemon --background \
        --exec $command \
        --make-pidfile --pidfile $pidfile --user $command_user \
        --start
   eend $?
}

stop() {
   ebegin "Stopping $RC_SVCNAME"
   start-stop-daemon --stop \
        --exec $command \
        --pidfile $pidfile --user $command_user
   eend $?
}

Проблема заключается в том, что при запуске основного сервиса opennebula происходят ошибки у «дочерних» сервисов:

fumoffu-test-node:~# /etc/init.d/opennebula start
 * Starting opennebula-scheduler ...
 * start-stop-daemon: fopen `/run/one/opennebula-scheduler.pid': No such file or directory                                                                              [ ok ]
 * Starting opennebula-hem ...
 * start-stop-daemon: fopen `/run/one/opennebula-hem.pid': No such file or directory                                                                                    [ ok ]
Potentially dangerous mode on /etc/logrotate.d/opennebula.logrotate: 0755
 * Starting opennebula ...                                                                                                                                              [ ok ]
fumoffu-test-node:~# 

Это, как я понял, происходит из-за того, что

  1. opennebula-hem и opennebula-scheduler запускаются раньше сервиса, который их вызывает - opennebula
  2. в сервисах opennebula-hem и opennebula-scheduler не прописано предварительно создавать каталог /run/one

Как можно сделать запуск этих сервисов «красиво»? Т.е., чтобы при старте opennebula всё-таки сразу выполнялась процедура start_pre(), а потом выполнялись дочерние скрипты?

 , ,

santic
()

Mikrotik + OVS => Настройка OVS на работу с VLAN

Форум — Admin

Коллеги, здравствуйте!

Есть следующая сеть (за изображение сильно не бить): Первая схема

Где на vlan 4 - домашняя сеть, а на vlan 5 - повешана сеть виртуальных машин, которые крутятся на сервере.

Настройки на микротике:

[cut]Интерфейсы:

Flags: D - dynamic, X - disabled, R - running, S - slave 
 #     NAME                                TYPE       ACTUAL-MTU L2MTU  MAX-L2MTU MAC-ADDRESS      
 0  R  ;;; WAN
       eth0-gateway                        ether            1500  1598       9214 чч:чч:чч:чч:чч:чч
 1   S ;;; Zyxel Switch Trunk
       eth1                                ether            1500  1598       9214 чч:чч:чч:чч:чч:чч
 2  RS ;;; My Server port
       eth2                                ether            1500  1598       9214 чч:чч:чч:чч:чч:чч
 3  RS ;;; My PC port
       eth3                                ether            1500  1598       9214 чч:чч:чч:чч:чч:чч
 4     ;;; Access Port
       eth4                                ether            1500  1598       9214 чч:чч:чч:чч:чч:чч

[santic@MikroTik] /interface list> /interface vlan print
Flags: X - disabled, R - running 
 #   NAME                                                                            MTU ARP             VLAN-ID INTERFACE                                                                         
 0 R config_vlan3                                                                   1500 enabled               3 bridge_vlan                                                                       
 1 R home_vlan4                                                                     1500 enabled               4 bridge_vlan                                                                       
 2 R server_vlan5                                                                   1500 enabled               5 bridge_vlan              
[santic@MikroTik] /interface list> /interface bridge print
Flags: X - disabled, R - running 
 0 R name="bridge_vlan" mtu=auto actual-mtu=1500 l2mtu=1598 arp=enabled arp-timeout=auto mac-address=zz:zz:zz:zz:zz protocol-mode=rstp fast-forward=yes igmp-snooping=no auto-mac=yes 
     ageing-time=5m priority=0x8000 max-message-age=20s forward-delay=15s transmit-hold-count=6 vlan-filtering=yes ether-type=0x8100 pvid=1 frame-types=admit-all ingress-filtering=no 
     dhcp-snooping=no 

[santic@MikroTik] > /interface bridge port print
Flags: X - disabled, I - inactive, D - dynamic, H - hw-offload 
 #     INTERFACE                                                          BRIDGE                                                         HW  PVID PRIORITY  PATH-COST INTERNAL-PATH-COST    HORIZON
 0     ;;; wi-fi
       wlan1                                                              bridge_vlan                                                           4     0x80         10                 10       none
 1     ;;; My PC
       eth3                                                               bridge_vlan                                                    yes    4     0x80         10                 10       none
 2 I   ;;; Zyxel
       eth1                                                               bridge_vlan                                                    yes    1     0x80         10                 10       none
 3     ;;; Server
       eth2                                                               bridge_vlan                                                    yes    1     0x80         10                 10       none

[santic@MikroTik] > /interface bridge vlan print
Flags: X - disabled, D - dynamic 
 #   BRIDGE         VLAN-IDS  CURRENT-TAGGED       CURRENT-UNTAGGED      
 0   ;;; home vlan
     bridge_vlan    4         bridge_vlan          wlan1                 
                              eth2                 eth3                  
 1   ;;; VM vlan
     bridge_vlan    5         bridge_vlan         
                              eth2                
 2 D bridge_vlan    1                              bridge_vlan           
                                                   eth2                  
 3   ;;; control vlan
     bridge_vlan    3        

[/cut]

Настройки сети на сервере, где запущен OVS:

[cut]

fumoffu-hypervisor:~$ cat /etc/network/interfaces 
auto lo
iface lo inet loopback

auto eth0 
  iface eth0 inet manual
    up ifconfig eth0 0.0.0.0 up
    down ifconfig eth0 down
auto eth1
  iface eth1 inet static
    address 192.168.1.4/24
    gateway 192.168.1.1

auto lan
  iface lan inet static
    address 192.168.1.3/24
    gateway 192.168.1.1

fumoffu-hypervisor:~$ ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq master ovs-system state UP group default qlen 1000
    link/ether xx:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether xx:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.4/24 scope global eth1
       valid_lft forever preferred_lft forever
4: ovs-system: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000
    link/ether xx:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
5: lan: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN group default qlen 1000
    link/ether xx:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.3/24 scope global lan
       valid_lft forever preferred_lft forever
6: vnet0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master ovs-system state UNKNOWN group default qlen 1000
    link/ether xx:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
7: vnet1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master ovs-system state UNKNOWN group default qlen 1000
    link/ether xx:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
9: lxd5_@if8: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master ovs-system state UP group default qlen 1000
    link/ether xx:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 0
11: lxd3_@if10: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master ovs-system state UP group default qlen 1000
    link/ether xx:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 1
13: lxd1_@if12: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master ovs-system state UP group default qlen 1000
    link/ether xx:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 2
15: lxd2_@if14: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master ovs-system state UP group default qlen 1000
    link/ether xx:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 3
17: lxd6_@if16: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master ovs-system state UP group default qlen 1000
    link/ether xx:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 4
19: lxd4_@if18: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master ovs-system state UP group default qlen 1000
    link/ether xx:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 5
21: lxd0_@if20: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master ovs-system state UP group default qlen 1000
    link/ether xx:xx:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff link-netnsid 6

fumoffu-hypervisor:~#  ovs-vsctl show
zzzzzzzz-zzzz-zzzz-zzzz-zzzzzzzz
    Bridge lan
        Port "lxd6"
            tag: 5
            Interface "lxd6"
        Port "lxd3"
            tag: 5
            Interface "lxd3"
        Port lan
            Interface lan
                type: internal
        Port "lxd0"
            tag: 5
            Interface "lxd0"
        Port "eth0"
            Interface "eth0"
        Port "lxd5"
            tag: 5
            Interface "lxd5"
        Port "lxd4"
            tag: 5
            Interface "lxd4"
        Port "lxd1"
            tag: 5
            Interface "lxd1"
        Port "vnet1"
            tag: 5
            Interface "vnet1"
        Port "lxd2"
            tag: 5
            Interface "lxd2"
        Port "vnet0"
            tag: 5
            Interface "vnet0"
        Port "vnet5"
            tag: 5
            Interface "vnet5"
                error: "could not open network device vnet5 (No such device)"

[/cut]

Хочется привести сеть к следующему виду: Желаемая схема

Т.е. мне хочется воткнуть сервер одним кабелем в транковый порт, чтобы:

  • иметь доступ к основной ОС на сервере по ssh по vlan id 4 +
  • были доступны виртуалки в сети с vlan 5

Если воткнуть сервер по желаемой схеме в транковый порт, то доступ имеется только к сети на которую повесили vlan 5.

Вопрос: каким способом настроить на сервере OVS, чтобы одним кабелем иметь и доступ к ОС и к сети с vlan 5?

Как пока понял - это не совсем реализуемо. Пока есть мысли на виртуальном свитче у Port «eth0» повесить vlan (tag 4).

 , , ,

santic
()

Docker (rootless mode) на удалённом сервере - останавливается контейнер после закрытия соединения по ssh.

Форум — Admin

Добрый день!

Просьба подсказать что можно сделать и куда копать:

Есть домашний сервер под Арчем (спасибо, я знаю, что это дебилизм, но исторически так сложилось). На него я накатил docker, но не простой, а с поддержкой режима rootless - инфа тут. Ставил сиё чудо через yaourt (если это важно).

В целом, всё работает, образы собираются, контейнеры разворачиваются. Но есть одно но… Когда я захожу по ssh на сервер и запускаю контейнер в режиме демона:

docker run --name q2 -d --rm -v /home/iddqd/test:/home/quake2/.q2pro -p 27910:27910/udp q2test +set game openffa +exec server.cfg

и закрываю сессию ssh, то через секунд 10 завершается и работа запущенного контейнера.

Я так понял, что это что-то связанно с сокетами:

DOCKER_HOST=unix://$XDG_RUNTIME_DIR/docker.sock

Нашёл временное решение костыль - запускать контейнера с помощью screen, но как быть, если я хочу запускать множество контейнеров с помощью скриптов?

 , ,

santic
()

Asus PCE-N10 PCI-E Adapter + современные материнские платы = Не запускается системник

Форум — Linux-hardware

Приветствую! Ситуация такая: Имеется беспроводная сетевая карта Asus PCE-N10 PCI-E Adapter у которой интерфейс pcie-16x, есть материнская плата ASRock H97M-ITX/ac . Устанавливаю сетевую карту в соответствующий разъём на материнской плате, включаю системник - индикация питания горит, кулеры крутятся, но изображения на экране нет, индикация жёсткого диска молчит, post-сигналы отсутствуют. Вытаскиваю сетевушку - системник начинает работать в штатном режиме. Эту же сетевушку тестил на HP Microserver Gen8 (собственно для этого сервака она и покупалась) - аналогичные результаты, что описал выше. Теперь самое интересное: собрал тестовый системный блок со старым железом на основе мат платы Asus P5QPL-AM, впендюрил проблемную сетевушку в родной слот pci-e x16 на материнке, запустил системник и, о чудо, система старотовала, линуксятина сетевушку подхватывает. Вставляю сетевушку в pci-e для видеокарты - всё работает, всё запускается. Вопрос: в чём может быть проблема с сетевой картой на современных материнках? Куда копать? Есть ли замена такой сетевой карте (не usb)? Спасибо за внимание! Мне нравится Показать список оценивших

 , , ,

santic
()

pfsense 2.3.2 + wifi адаптеры - настройка беспроводной сети.

Форум — Admin

Приветствую! Решил сделать домашний роутер на основе HP microserver GEN8 (стоит гипервизор esxi ) + pfsense. Проводная сеть настроилась без проблем, работает на ура. Теперь возникла потребность поднять беспроводную точку доступа. В моём распоряжении есть 3 usb брелка: asus N13, Tp-Link TL-WN723N (чипы от Realtek) и Tp-link TL-WN727N. Первые два брелка опознаются и есть возможность на них повесить сетевой интерфейс. Всё бы хорошо, но первые два брелка не работают как точки доступа, состояние беспроводного интерфйса «no carrying». Нашёл списочек поддерживаемых беспроводных карточек: https://goo.gl/hdMu8k .Выяснил, что первые два брелка не умеют в ad-hock и Access Point. Взял третий брелок, который по идее должен уметь в режимы точки доступа(посмотрел список). Но после установки в usb - флешка не определяется. Интерфейс нельзя повесить на устройство. Все брелки проверялись в других системах и машинах, они исправны. Куда копать?

 , , ,

santic
()

Asus Z97I-PLUS + Arch Linux = взлетит?

Форум — Linux-hardware

Приветствую! Решил собрать себе новый компьютер домой для Интернета, медиа и просто для того, чтобы с комфортом работать. Так вот, встал вопрос о выборе материнки, приметил себе Asus Z97I-PLUS mini-itx. Прежде всего интересует как обстоят дела с драйверами под линукс у этой мамки? Особенно драйвера на встроенное видео и на wi-fi. Есть ли те, кто имеет такую материнку?

 , , , ,

santic
()

Verlihub vs Opendchub

Форум — Admin

Всем привет. Решил поднять DC хаб, который будет смотреть в Интернет. Есть машина под Debian 6.0 (на этой машине и поднимаю хаб), есть маршрутизатор под управлением pfsense и мой десктоп, который принимает Интернет через wi-fi. Сервер и десктоп подключены к маршрутизатору соответственно. В чём вопрос: решил начать поднимать хаб с opendchub - работает, пользователи имеют доступ к серверу (в том числе и я с десктопа), можно качать, пользоваться поиском. Но сам opendchub не понравился тем, что этот сервер имеет меньшие возможности по сравнению с verlihub + данный сервер требует запуск от рута. Решил попробовать Verlihub, собрал git-версию, пофиксил проблемы с библиотеками, отконфигурировал хаб, запускаю...Коннект есть, пользователи так же могут подключиться к хабу, но при этом возникает трабла: никто из пользователей не может получить списки файлов друг у друга, поиск перестаёт работать. Пробовал разные варианты подключения (ну и соответственно пользователи тоже) - один фиг с маслом, никто не может посмотреть друг у друга шару. В итоге только один opedchub смог нормально работать. Как же можно решить проблему с verlihub? Выложу конфиги: opendchub - Конфиг verilhub - Конфиг Перенастраивал Verilhub вдоль и поперёк, не могу понять в чём дело...Запуск из под рута verilhub'a не дал положительных результатов. Куда копать?

 , , , ,

santic
()

Ищу дополнительный модуль для материнской платы Kontron 786LCD/3.5"

Форум — Linux-hardware

Имеется плата Kontron 786LCD/3.5" . Нужна дополнительная плата(модуль) к материнке - 786LCD LCDADPT 3V3 module (720910) . Месяца 4-5 назад я нашел забугорный магазин, где можно было это дело приобрести. Сейчас - гугол этот магазин не находит, а ссылку на магазин я потерял. Вопрос: где можно приобрести, данный выше, доп. модуль? Спасибо за внимание!

santic
()

Framebuffer + Emulator NES - существует ли?

Форум — Games

Hello World! Интересует - существуют какие-нибудь эмуляторы NES, которые могут работать во FB? Спасибо за ответы.

santic
()

RSS подписка на новые темы