LINUX.ORG.RU

Сообщения witcher

 

исключения для audit

Форум — Admin

Добрый день, как можно игнорировать не нужные мне ивенты кроме как используя exclude по msgtype? Например:

type=SYSCALL msg=audit(1398311603.188:1489206): arch=c000003e syscall=4 success=yes exit=0 a0=7f6bff90e558 a1=7f6bfaff56f0 a2=7f6bfaff56f0 a3=0 items=1 ppid=1 pid=8409 auid=500 uid=0 gid=0 euid=0 suid=0 fsuid=0 egid=0 sgid=0 fsgid=0 tty=(none) ses=16625 comm="splunkd" exe="/opt/splunkforwarder/bin/splunkd" key=(null)

Мой конфиг:

-b 320
-a exclude,always -F msgtype=CWD
-a always,exit -F euid=0 -F perm=wxa -k ROOT_ACTION
-a always,exit -S all -F dir=/incoming
-w /root -p rwxa
-w /var/log -p rwxa
-w /etc -p rwxa
-w /bin -p wa
-w /sbin -p wa
-w /usr/bin -p wa
-w /usr/sbin -p wa
-w /var/lib -p wa
-w /lib -p wa
-w /usr/lib -p wa

 

witcher
()

не появляется приглашение

Форум — Admin

Добрый день, нашел старый комп. Решил включить посмотреть что там. Стоит Centos 5, загрузка проходит, вроде все ОК. Но потом после строки загрузки atd [ОК]. Все встает, могу печатать и .тд. но нет приглашения ввести логин пароль. tty тоже не переключаются. Что это может быть? Спасибо.

witcher
()

отслеживание процесса

Форум — Admin

Есть проблема: OL6, несистемный процесс, слушает определенный порт. При рестарте сети (и даже iptables) перестает обрабатывать запросы - «зависает» и помогает только рестарт. Иногда и просто перестает работать. В его логах и в системных - чисто.

Прошу совета как можно и какими средствами отследить проблему? Делать такого пока не приходилось до этого, и даже как у гугла спросить правильно не знаю. Подскажите плиз. Спасибо

witcher
()

Помогите разобраться с HA кластером

Форум — Admin

У меня есть двунодовый кластер на Oracle Linux 6.4 (виртаулки). При падении рабочей ноды он переносил сервисы на другую ноду и все работало. Но тут почему то кластер не сработал. Как ни читал я логи так и не понял причину.

ЛОГ первой ноды:

Jul 29 05:02:57 a-svfeOL corosync[4622]:   [TOTEM ] A processor failed, forming new configuration.
Jul 29 05:03:04 a-svfeOL corosync[4622]:   [QUORUM] Members[1]: 1
Jul 29 05:03:04 a-svfeOL corosync[4622]:   [TOTEM ] A processor joined or left the membership and a new membership was formed.
Jul 29 05:03:04 a-svfeOL corosync[4622]:   [CPG   ] chosen downlist: sender r(0) ip(10.10.60.15) ; members(old:2 left:1)
Jul 29 05:03:04 a-svfeOL corosync[4622]:   [MAIN  ] Completed service synchronization, ready to provide service.
Jul 29 05:03:04 a-svfeOL kernel: dlm: closing connection to node 2
Jul 29 05:03:15 a-svfeOL corosync[4622]:   [TOTEM ] A processor joined or left the membership and a new membership was formed.
Jul 29 05:03:15 a-svfeOL corosync[4622]:   [QUORUM] Members[2]: 1 2
Jul 29 05:03:15 a-svfeOL corosync[4622]:   [QUORUM] Members[2]: 1 2
Jul 29 05:03:15 a-svfeOL corosync[4622]:   [CPG   ] chosen downlist: sender r(0) ip(10.10.60.15) ; members(old:1 left:0)
Jul 29 05:03:15 a-svfeOL corosync[4622]:   [MAIN  ] Completed service synchronization, ready to provide service.
Jul 29 05:03:18 a-svfeOL corosync[4622]: cman killed by node 2 because we were killed by cman_tool or other application
Jul 29 05:03:18 a-svfeOL fenced[4683]: telling cman to remove nodeid 2 from cluster
Jul 29 05:03:22 a-svfeOL rgmanager[4856]: #67: Shutting down uncleanly
Jul 29 05:03:22 a-svfeOL gfs_controld[4753]: cluster is down, exiting
Jul 29 05:03:22 a-svfeOL gfs_controld[4753]: daemon cpg_dispatch error 2
Jul 29 05:03:22 a-svfeOL fenced[4683]: daemon cpg_dispatch error 2
Jul 29 05:03:22 a-svfeOL fenced[4683]: cluster is down, exiting
Jul 29 05:03:22 a-svfeOL fenced[4683]: daemon cpg_dispatch error 2
Jul 29 05:03:22 a-svfeOL fenced[4683]: cpg_dispatch error 2
Jul 29 05:03:22 a-svfeOL dlm_controld[4696]: cluster is down, exiting
Jul 29 05:03:22 a-svfeOL dlm_controld[4696]: daemon cpg_dispatch error 2
Jul 29 05:03:22 a-svfeOL dlm_controld[4696]: cpg_dispatch error 2
Jul 29 05:03:22 a-svfeOL rgmanager[5457]: [script] Executing /root/sv_run.sh status
Jul 29 05:03:25 a-svfeOL kernel: dlm: closing connection to node 2
Jul 29 05:03:30 a-svfeOL kernel: dlm: closing connection to node 1
Jul 29 05:03:42 a-svfeOL rgmanager[5517]: [script] Executing /root/sv_run.sh stop
Jul 29 05:04:48 a-svfeOL rgmanager[5618]: [ip] Removing IPv4 address 10.10.60.4/24 from eth4
Jul 29 05:05:35 a-svfeOL kernel: INFO: task rgmanager:5448 blocked for more than 120 seconds.
Jul 29 05:05:35 a-svfeOL kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
Jul 29 05:05:35 a-svfeOL kernel: rgmanager       D ffff8801b415e928     0  5448   4854 0x00000080
Jul 29 05:05:35 a-svfeOL kernel: ffff8801b1c4dc60 0000000000000086 ffffffff8105bbc7 ffff880100000000
Jul 29 05:05:35 a-svfeOL kernel: 0000000000012180 ffff8801b1c4dfd8 ffff8801b1c4c010 0000000000012180
Jul 29 05:05:35 a-svfeOL kernel: ffff8801b1c4dfd8 0000000000012180 ffffffff81791020 ffff8801b415e380
Jul 29 05:05:35 a-svfeOL kernel: Call Trace:
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffff8105bbc7>] ? find_busiest_group+0x237/0xae0
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffff8150dfaf>] schedule+0x3f/0x60
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffff8150fe75>] rwsem_down_failed_common+0xc5/0x160
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffff8150ff45>] rwsem_down_read_failed+0x15/0x17
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffff81266584>] call_rwsem_down_read_failed+0x14/0x30
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffff8150f194>] ? down_read+0x24/0x30
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffffa02d3f9d>] dlm_user_request+0x4d/0x1c0 [dlm]
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffff81066de3>] ? perf_event_task_sched_out+0x33/0xa0
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffff8115c3a6>] ? kmem_cache_alloc_trace+0x156/0x190
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffffa02e1841>] device_user_lock+0x131/0x140 [dlm]
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffff81081853>] ? set_current_blocked+0x53/0x70
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffffa02e1b32>] device_write+0x2e2/0x4f0 [dlm]
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffff811722d8>] vfs_write+0xc8/0x190
Jul 29 05:05:35 a-svfeOL kernel: [<ffffffff811724a1>] sys_write+0x51/0x90

ЛОГ второй ноды:

Jul 29 05:02:56 b-svfeOL corosync[1456]:   [TOTEM ] A processor failed, forming new configuration.
Jul 29 05:02:58 b-svfeOL corosync[1456]:   [QUORUM] Members[1]: 2
Jul 29 05:02:58 b-svfeOL kernel: dlm: closing connection to node 1
Jul 29 05:02:58 b-svfeOL corosync[1456]:   [TOTEM ] A processor joined or left the membership and a new membership was formed.
Jul 29 05:02:58 b-svfeOL corosync[1456]:   [CPG   ] chosen downlist: sender r(0) ip(10.10.60.16) ; members(old:2 left:1)
Jul 29 05:02:58 b-svfeOL corosync[1456]:   [MAIN  ] Completed service synchronization, ready to provide service.
Jul 29 05:02:58 b-svfeOL rsyslogd-2177: imuxsock begins to drop messages from pid 1456 due to rate-limiting
Jul 29 05:02:58 b-svfeOL fenced[1534]: fencing node a-svfeOL
Jul 29 05:02:58 b-svfeOL fenced[1534]: fence a-svfeOL dev 0.0 agent none result: error no method
Jul 29 05:02:58 b-svfeOL fenced[1534]: fence a-svfeOL failed
Jul 29 05:03:04 b-svfeOL rsyslogd-2177: imuxsock lost 15 messages from pid 1456 due to rate-limiting
Jul 29 05:03:04 b-svfeOL fenced[1534]: fencing node a-svfeOL
Jul 29 05:03:04 b-svfeOL fenced[1534]: fence a-svfeOL dev 0.0 agent none result: error no method
Jul 29 05:03:04 b-svfeOL fenced[1534]: fence a-svfeOL failed
Jul 29 05:03:04 b-svfeOL corosync[1456]:   [TOTEM ] A processor joined or left the membership and a new membership was formed.
Jul 29 05:03:04 b-svfeOL corosync[1456]:   [CPG   ] chosen downlist: sender r(0) ip(10.10.60.16) ; members(old:1 left:0)
Jul 29 05:03:04 b-svfeOL corosync[1456]:   [MAIN  ] Completed service synchronization, ready to provide service.
Jul 29 05:03:10 b-svfeOL fenced[1534]: fencing node a-svfeOL
Jul 29 05:03:10 b-svfeOL fenced[1534]: fence a-svfeOL dev 0.0 agent none result: error no method
Jul 29 05:03:10 b-svfeOL fenced[1534]: fence a-svfeOL failed
Jul 29 05:03:16 b-svfeOL corosync[1456]:   [TOTEM ] A processor joined or left the membership and a new membership was formed.
Jul 29 05:03:16 b-svfeOL corosync[1456]:   [QUORUM] Members[2]: 1 2
Jul 29 05:03:16 b-svfeOL corosync[1456]:   [QUORUM] Members[2]: 1 2
Jul 29 05:03:16 b-svfeOL rsyslogd-2177: imuxsock begins to drop messages from pid 1456 due to rate-limiting
Jul 29 05:03:19 b-svfeOL fenced[1534]: telling cman to remove nodeid 1 from cluster
Jul 29 05:03:22 b-svfeOL rsyslogd-2177: imuxsock lost 170 messages from pid 1456 due to rate-limiting
Jul 29 05:03:39 b-svfeOL corosync[1456]:   [TOTEM ] A processor failed, forming new configuration.
Jul 29 05:03:41 b-svfeOL kernel: dlm: closing connection to node 1
Jul 29 05:03:41 b-svfeOL corosync[1456]:   [QUORUM] Members[1]: 2
Jul 29 05:03:41 b-svfeOL corosync[1456]:   [TOTEM ] A processor joined or left the membership and a new membership was formed.
Jul 29 05:03:41 b-svfeOL corosync[1456]:   [CPG   ] chosen downlist: sender r(0) ip(10.10.60.16) ; members(old:2 left:1)
Jul 29 05:03:41 b-svfeOL rsyslogd-2177: imuxsock begins to drop messages from pid 1456 due to rate-limiting
Jul 29 05:03:42 b-svfeOL rsyslogd-2177: imuxsock lost 17 messages from pid 1456 due to rate-limiting
Jul 29 05:06:29 b-svfeOL kernel: INFO: task rgmanager:14569 blocked for more than 120 seconds.
Jul 29 05:06:29 b-svfeOL kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
Jul 29 05:06:29 b-svfeOL kernel: rgmanager       D ffff8801b31906e8     0 14569   1994 0x00000080
Jul 29 05:06:29 b-svfeOL kernel: ffff8801b15c7c60 0000000000000082 ffffffff8105bbc7 ffff880100000000
Jul 29 05:06:29 b-svfeOL kernel: 0000000000012180 ffff8801b15c7fd8 ffff8801b15c6010 0000000000012180
Jul 29 05:06:29 b-svfeOL kernel: ffff8801b15c7fd8 0000000000012180 ffffffff81791020 ffff8801b3190140
Jul 29 05:06:29 b-svfeOL kernel: Call Trace:
Jul 29 05:06:29 b-svfeOL kernel: [<ffffffff8105bbc7>] ? find_busiest_group+0x237/0xae0
Jul 29 05:06:29 b-svfeOL kernel: [<ffffffff8150dfaf>] schedule+0x3f/0x60
Jul 29 05:06:29 b-svfeOL kernel: [<ffffffff8150fe75>] rwsem_down_failed_common+0xc5/0x160
Jul 29 05:06:29 b-svfeOL kernel: [<ffffffff8150ff45>] rwsem_down_read_failed+0x15/0x17
Jul 29 05:06:29 b-svfeOL kernel: [<ffffffff81266584>] call_rwsem_down_read_failed+0x14/0x30
Jul 29 05:06:29 b-svfeOL kernel: [<ffffffff8150f194>] ? down_read+0x24/0x30

Да, фенси агент не установлен (был случай когда он уходил в цикл и ребутал машину до посинения). Я так понял что что-то произошло и вторая нода удалила первую из кластера но что-то и здесь не получилось. В итоге придя на работу я обнаружил что сервис не перевелся при этом clustat на второй ноде показывал что первая offline и сервис на ней. А на первой ноде clustat не работал так как CMAN был выключен и не включался, помогла птолько перезагрузка.

witcher
()

Работа со строками файла

Форум — General

Добрый день, помогите пожалуйста: Есть текстовой файл, нужно удалить строки в 348 позиции которых стоит цифра. Обычно на этой строке буква. Пытался использовать awk и sed, но моих скромных знаний не хватило...

 

witcher
()

ecryptfs

Форум — Security

Пробовал побаловаться с шифрованием директорий, установил ecryptfs utils 82-6 на oracle linux 6. Пытался настроить автомаунт для обычного юзера, но так и не получилось:

Dec 13 14:51:29 a-svfeOL kernel: Could not find key with description: [ea6f2aa252467dc7]
Dec 13 14:51:29 a-svfeOL kernel: process_request_key_err: No key
Dec 13 14:51:29 a-svfeOL kernel: Could not find valid key in user session keyring for sig specified in mount option: [ea6f2aa252467dc7]
Dec 13 14:51:29 a-svfeOL kernel: One or more global auth toks could not properly register; rc = [-2]
Dec 13 14:51:29 a-svfeOL kernel: Error parsing options; rc = [-2]

fstab

/home/test/.input /home/test/input ecryptfs rw,user,exec,noauto,ecryptfs_sig=ea6f2aa252467dc7,ecryptfs_cipher=aes,ecryptfs_key_bytes=16, 0 0 

.ecryptfs/

-rw-r--r-- 1 test test  0 Dec 13 12:06 auto-mount
-rw------- 1 test test 17 Dec 13 13:32 sig-cache.txt
-rw------- 1 test test 32 Dec 13 14:29 wrapped-passphrase

.bash_profile

if test -e $HOME/.ecryptfs/auto-mount; then
  mount | grep "$HOME/.input type ecryptfs"
  if test $? != 0; then
    mount -i $HOME/.input
  fi
fi

Делал все по ману с оф сайта...Если после того как залогинился добавить ключ вручную, то вручную монтирование проходит. Заранее спасибо.

witcher
()

Шифрование папок linux

Форум — Security

Товарищи, буду благодарен тому кто посоветует хороший инструмент для шифрования домашней папки в RHEL (OracleLinux). Не могу нагуглить толкового...

 ,

witcher
()

Патчить апач

Форум — Admin

Люди добрые подскажите, как патчить httpd 2.2??? Стоит redhat 5.7, httpd 2.2.3. Не поддерживается возможность отключать ssl compression, есть патч. Как его вообще применять? Опыта такого пока не было...

witcher
()

Missing dependency yum

Форум — Admin

Не могу побороть проблему, вроде и в гугле она часто встречается и на форуме есть, но решения которые предложены не помогают.

cat /etc/redhat-release
Red Hat Enterprise Linux Server release 5.8 (Tikanga)
Пытаюсь обновиться. Выдает ошибку на некоторые пакеты:
Error: Missing Dependency: cyrus-sasl-lib = 2.1.22-5.el5_4.3 is needed by package cyrus-sasl-2.1.22-5.el5_4.3.i386 (local)
Error: Missing Dependency: cyrus-sasl-lib = 2.1.22-5.el5_4.3 is needed by package cyrus-sasl-devel-2.1.22-5.el5_4.3.x86_64 (installed)
Error: Missing Dependency: cyrus-sasl-lib = 2.1.22-5.el5_4.3 is needed by package cyrus-sasl-2.1.22-5.el5_4.3.i386 (base-local)
Error: Missing Dependency: cyrus-sasl-lib = 2.1.22-5.el5_4.3 is needed by package cyrus-sasl-devel-2.1.22-5.el5_4.3.i386 (installed)
При этом
yum list installed | grep cyrus
cyrus-sasl.x86_64                     2.1.22-5.el5_4.3                 installed
cyrus-sasl-devel.i386                 2.1.22-5.el5_4.3                 installed
cyrus-sasl-devel.x86_64               2.1.22-5.el5_4.3                 installed
cyrus-sasl-lib.i386                   2.1.22-5.el5_4.3                 installed
cyrus-sasl-lib.x86_64                 2.1.22-5.el5_4.3                 installed
cyrus-sasl-plain.i386                 2.1.22-5.el5_4.3                 installed
cyrus-sasl-plain.x86_64               2.1.22-5.el5_4.3                 installed
Эта же проблема на некоторых других серверах на другие пакеты, вариант с удалением обоих пакетов не кт, так как тянет за собой кучу других важных пакетов.

witcher
()

Проблемы с кластером.

Форум — Admin

Впервые попробовал собрать двухнодовый кластер на базе двух vm OracleLinux на ESX. Кворумный диск не использую. Ноды: a-svfeOL 10.10.60.15 b-svfeOL 10.10.60.16 общий ip 10.10.06.14

Конфиг кластера:

<?xml version="1.0"?>
<cluster config_version="3" name="svfeOL-cluster">
        <cman expected_votes="1" two_node="1"/>
        <clusternodes>
                <clusternode name="a-svfeOL" nodeid="1" votes="1">
                        <fence/>
                </clusternode>
                <clusternode name="b-svfeOL" nodeid="2" votes="1">
                        <fence/>
                </clusternode>
        </clusternodes>
        <fencedevices/>
        <rm log_facility="local4" log_level="5">
                <failoverdomains>
                        <failoverdomain name="svfeOL-cluster" nofailback="0" ordered="0" restricted="1">
                                <failoverdomainnode name="a-svfeOL" priority="1"/>
                                <failoverdomainnode name="b-svfeOL" priority="1"/>
                        </failoverdomain>
                </failoverdomains>
                <service autostart="1" name="svfeOL" recovery="relocate">
                        <ip address="10.10.60.14" monitor_link="1"/>
                </service>
        </rm>
        <totem consensus="4800" join="60" token="20000" token_retransmits_before_loss_const="20"/>
</cluster>
Вывод clustat на обоих машинах одинаков:
Cluster Status for svfeOL-cluster @ Fri Sep 21 12:05:34 2012
Member Status: Quorate

 Member Name                             ID   Status
 ------ ----                             ---- ------
 a-svfeOL                                    1 Online, rgmanager
 b-svfeOL                                    2 Online, Local, rgmanager

 Service Name                   Owner (Last)                   State
 ------- ----                   ----- ------                   -----
 service:svfeOL                 a-svfeOL                       started

Вывод cman_tool status:

Version: 6.2.0
Config Version: 3
Cluster Name: svfeOL-cluster
Cluster Id: 4149
Cluster Member: Yes
Cluster Generation: 180
Membership state: Cluster-Member
Nodes: 2
Expected votes: 1
Total votes: 2
Node votes: 1
Quorum: 1
Active subsystems: 8
Flags: 2node
Ports Bound: 0 177
Node name: a-svfeOL
Node ID: 1
Multicast addresses: 239.192.16.69
Node addresses: 10.10.60.15

На второй почти тоже самое, только ID 2 и Ports Bound: пусто.

Для организации общего IP 10.10.60.14 был установлен hearbeat 3.0.3. hc.cf:

debugfile /var/log/ha-debug
logfile /var/log/ha-log
logfacility local0
keepalive 2
deadtime 25
warntime 10
initdead 50
udpport 694
bcast eth4
ucast eth4 10.10.60.15
auto_failback on
node a-svfeOL 
node b-svfeOL
конфиг haresource:
a-svfeOL IPaddr::10.10.60.14/24/eth4
Iptables отключен. Когда все включено все работает ОК. Hearbeat исправно поднимает адрес на первой ноде. Делаю ifconfig eth4 down на второй ноде. На первой ноде clustat, продолжает работать, пинг на 10.10.60.14 идет:
Cluster Status for svfeOL-cluster @ Fri Sep 21 12:21:12 2012
Member Status: Quorate

 Member Name                                                     ID   Status
 ------ ----                                                     ---- ------
 a-svfeOL                                                            1 Online, Local, rgmanager
 b-svfeOL                                                            2 Offline

 Service Name                                                     Owner (Last)                                                     State
 ------- ----                                                     ----- ------                                                     -----
 service:svfeOL                                                   a-svfeOL                                                         started
На второй ноде вылазит строчка
dlm: closing connection to node 2
Поднимаю интерфейс на второй ноде обратно. На второй ноде вылазит:
dlm: closing connection to node 1
На первой ноде cman отпадает!!! На обоих нода вылазит сообщение:
INFO: task rgmanager blocked for more than 120 secons
При попытке на первой ноде поднять cman, вылазит:
Unfencing self... fence_node: cannot connect to cman
Leaving fence domain... found dlm lockspace /sys/kernel/dlm/rgmanager
Rgmanager не убивается вообще, помогает только перезагрузка обоих серверов. Что делать?)))

witcher
()

Очистка maildir

Форум — Admin

Добрый день, на сервер у меня в конторе стоит postfix+dovecot. Письма кладутся в maildir с индексацией. Если удалить письма вручную из папки cur, пере индексация сама пройдет? Или это надо делать по-другому? upd: Как сделать архивацию такого ящика?

witcher
()

Локальный репозиторий

Форум — General

Есть задача сделать локальный репозиторий для red hat, есть ли неофициальные зеркала redhat.com?? места где можно качать rpm... Пытаюсь закачать EPEL с помощью rsync, выдает везде ошибку (например с mirror.yandex.ru):

rsync -avrt rsync://213.180.204.183/epel/5Server/x86_64/ /var/www/html/yum/epel/5Server/x86_64
@ERROR: Unknown module 'epel'
rsync error: error starting client-server protocol (code 5) at main.c(1527) [receiver=3.0.6]

Тоже самое с некоторых других опробованных мною серверов. Что не так? Чей репозиторий лучше всего подходит для RHEL?

witcher
()

Не стартуют иксы

Форум — Linux-hardware

Добрый день, поставил Backtrack 5 r2 на asus u31sd, на ноуте гибридная видеосистема оптимус. По дефолту без конфига xorg.conf грузится карточка intel с максимальным разрешением 1024x768, ставлю дрова nvidia, без разницы откуда, хоть из реп хоть ручками run. Подключаю edid.bin, иксы валятся с ошибкой

Segmentation fault at address 0x2
Fatal server error:
Caught signal 11 (Segmentation fault). Server aborting
Мой конфиг:
Section "ServerLayout"
    Identifier     "Layout0"
    Screen      0  "Screen0" 0 0
    InputDevice    "Keyboard0" "CoreKeyboard"
    InputDevice    "Mouse0" "CorePointer"
EndSection

Section "Files"
EndSection

Section "InputDevice"

    # generated from default
    Identifier     "Mouse0"
    Driver         "mouse"
    Option         "Protocol" "auto"
    Option         "Device" "/dev/psaux"
    Option         "Emulate3Buttons" "no"
    Option         "ZAxisMapping" "4 5"
EndSection

Section "InputDevice"

    # generated from default
    Identifier     "Keyboard0"
    Driver         "kbd"
EndSection

Section "Monitor"
    Identifier     "Monitor0"
    VendorName     "Unknown"
    ModelName      "Unknown"
    HorizSync       28.0 - 33.0
    VertRefresh     43.0 - 72.0
    Option         "DPMS"
EndSection

Section "Device"
    Identifier     "Device0"
    Driver         "nvidia"
    VendorName     "NVIDIA Corporation"
    Busid          "PCI:01:00:0"
    Option         "ConnectedMonitor" "DFP-0"
    Option         "CustomEDID" "DFP-0:/etc/X11/edid.bin"
EndSection

Section "Screen"
    Identifier     "Screen0"
    Device         "Device0"
    Monitor        "Monitor0"
    DefaultDepth    24
    SubSection     "Display"
        Depth       24
    EndSubSection
EndSection

Часть лога с ошибкой:

Backtrace:
[    33.069] 0: /usr/bin/X (xorg_backtrace+0x3b) [0x80ad18b]
[    33.069] 1: /usr/bin/X (0x8048000+0x60685) [0x80a8685]
[    33.069] 2: (vdso) (__kernel_rt_sigreturn+0x0) [0xb76f640c]
[    33.069] 3: /usr/lib/xorg/extra-modules/libglx.so (0xb6e42000+0x372a8a) [0xb71b4a8a]
[    33.069] 4: /usr/bin/X (0x8048000+0x4555c) [0x808d55c]
[    33.069] 5: /usr/bin/X (0x8048000+0x4a7e7) [0x80927e7]
[    33.069] 6: /usr/bin/X (0x8048000+0x1ed05) [0x8066d05]
[    33.069] 7: /lib/tls/i686/cmov/libc.so.6 (__libc_start_main+0xe6) [0xb7414bd6]
[    33.069] 8: /usr/bin/X (0x8048000+0x1e8f1) [0x80668f1]
[    33.069] Segmentation fault at address 0x2
[    33.069] 
Fatal server error:
[    33.069] Caught signal 11 (Segmentation fault). Server aborting

lspci все определяет, обе карточки, драйвера, модули. драйвера типа nouveau,nv, nvidiafb, либо удалил либо в блеклист засунул. Кто-нибудь может посоветовать что-то? Сам в пингвинах не особо силен....

 , ,

witcher
()

RSS подписка на новые темы