LINUX.ORG.RU

Сообщения Naymen

 

Raid1 HP DL160g6 mdadm

Добрый день! На сервере HP DL160g6, подключены два диска Western Digital по 500 GB. Raid контроллер встроенный, но не используется и в bios выбран интерфейс AHCI

После выключения сервера и если я вытащу второй диск, а потом за нового установлю его в hot swap корзину, после mdadm снова начинает делать синхронизацию на второй диск.

В данный момент имеется сервер следующей конфигурации: Debian 6. LAMP+Nginx

Диск разбит на два раздела загрузочный и корневой каталог /boot / Два диска по 500 gb sata, соедененны в Raid 1, программным raid mdadm. ================================================= root@us1:~# cat /proc/mdstat Personalities : [raid1] md1 : active raid1 sdb2[1] sda2[0] 488188792 blocks super 1.2 [2/2] [UU]

md0 : active raid1 sdb1[2] sda1[0] 194548 blocks super 1.2 [2/2] [UU]

unused devices:

=================================================

root@us1:~# fdisk -l

Disk /dev/sdb: 500.1 GB, 500107862016 bytes 255 heads, 63 sectors/track, 60801 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x000aac23

Device Boot Start End Blocks Id System /dev/sdb1 1 25 194560 fd Linux raid autodetect Partition 1 does not end on cylinder boundary. /dev/sdb2 25 60802 488189952 fd Linux raid autodetect

Disk /dev/sda: 500.1 GB, 500107862016 bytes 255 heads, 63 sectors/track, 60801 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x0009b3d7

Device Boot Start End Blocks Id System /dev/sda1 1 25 194560 fd Linux raid autodetect Partition 1 does not end on cylinder boundary. /dev/sda2 25 60802 488189952 fd Linux raid autodetect

Disk /dev/md0: 199 MB, 199217152 bytes 2 heads, 4 sectors/track, 48637 cylinders Units = cylinders of 8 * 512 = 4096 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Disk /dev/md1: 499.9 GB, 499905323008 bytes 2 heads, 4 sectors/track, 122047198 cylinders Units = cylinders of 8 * 512 = 4096 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000

Disk /dev/md1 doesn't contain a valid partition table =================================================

После перезагрузки в логах было только это:

Feb 4 11:53:43 us1 kernel: [9509352.058376] mysqld D ffff88000520fb30 0 4238 16182 0x00000000 Feb 4 11:53:43 us1 kernel: [9509352.058438] ffffffff814891f0 0000000000000086 ffff88005787ba38 ffff88005787ba34 Feb 4 11:53:43 us1 kernel: [9509352.058533] ffff88000de8c9c8 0000000000000001 000000000000f9e0 ffff88005787bfd8 Feb 4 11:53:43 us1 kernel: [9509352.058627] 0000000000015780 0000000000015780 ffff8800b7340000 ffff8800b73402f8 Feb 4 11:53:43 us1 kernel: [9509352.058721] Call Trace: Feb 4 11:53:43 us1 kernel: [9509352.058771] [<ffffffff810e4cb3>] ? get_partial_node+0x15/0x85 Feb 4 11:53:43 us1 kernel: [9509352.058826] [<ffffffff81064f63>] ? bit_waitqueue+0x10/0xa0 Feb 4 11:53:43 us1 kernel: [9509352.058881] [<ffffffff810b44d1>] ? sync_page+0x0/0x46 Feb 4 11:53:43 us1 kernel: [9509352.058934] [<ffffffff812fbb4a>] ? io_schedule+0x73/0xb7 Feb 4 11:53:43 us1 kernel: [9509352.058987] [<ffffffff810b4512>] ? sync_page+0x41/0x46 Feb 4 11:53:43 us1 kernel: [9509352.059038] [<ffffffff812fbf5a>] ? __wait_on_bit_lock+0x3f/0x84 Feb 4 11:53:43 us1 kernel: [9509352.059093] [<ffffffff810b449e>] ? __lock_page+0x5d/0x63 Feb 4 11:53:43 us1 kernel: [9509352.059145] [<ffffffff81065070>] ? wake_bit_function+0x0/0x23 Feb 4 11:53:43 us1 kernel: [9509352.059199] [<ffffffff810b44ad>] ? lock_page+0x9/0x1f Feb 4 11:53:43 us1 kernel: [9509352.059250] [<ffffffff810b45c3>] ? find_lock_page+0x25/0x45 Feb 4 11:53:43 us1 kernel: [9509352.059310] [<ffffffff810b4874>] ? grab_cache_page_write_begin+0x3b/0x97 Feb 4 11:53:43 us1 kernel: [9509352.059378] [<ffffffffa015d19e>] ? ext4_da_write_begin+0x15b/0x272 [ext4] Feb 4 11:53:43 us1 kernel: [9509352.059436] [<ffffffff810b5109>] ? generic_file_buffered_write+0x118/0x278 Feb 4 11:53:43 us1 kernel: [9509352.059496] [<ffffffff810b561a>] ? __generic_file_aio_write+0x25f/0x293 Feb 4 11:53:43 us1 kernel: [9509352.059554] [<ffffffff8124116c>] ? sock_aio_write+0xb1/0xbc Feb 4 11:53:43 us1 kernel: [9509352.059607] [<ffffffff810b56a7>] ? generic_file_aio_write+0x59/0x9f Feb 4 11:53:43 us1 kernel: [9509352.059664] [<ffffffff810eef1a>] ? do_sync_write+0xce/0x113 Feb 4 11:53:43 us1 kernel: [9509352.059718] [<ffffffff810d9973>] ? swap_info_get+0x6a/0xa3 Feb 4 11:53:43 us1 kernel: [9509352.059771] [<ffffffff81065042>] ? autoremove_wake_function+0x0/0x2e Feb 4 11:53:43 us1 kernel: [9509352.059827] [<ffffffff810ef86c>] ? vfs_write+0xa9/0x102 Feb 4 11:53:43 us1 kernel: [9509352.059879] [<ffffffff810ef91c>] ? sys_pwrite64+0x57/0x77 Feb 4 11:53:43 us1 kernel: [9509352.059932] [<ffffffff81010b42>] ? system_call_fastpath+0x16/0x1b

 dl160g6, ,

Naymen
()

Все время автоматическая замена зонам bind9

У меня все время стираются настройки dns в bind9, а точнее файлы зон переписываются. Пропадают данные из файлов named.conf.local

Что делать? Может вирус? ОС: Debian

Naymen
()

Apache FastCGI. Как уменьшить количество процессов Apache?

Apache FastCGI. Как уменьшить количество процессов Apache? http://cs9933.vkontakte.ru/u3627394/-12/z_c594f152.jpg Мои настройки /etc/apache2/apache.conf

<IfModule mpm_worker_module> StartServers 1 ServerLimit 4 MaxClients 25 MinSpareThreads 10 MaxSpareThreads 35 ThreadsPerChild 25 MaxRequestsPerChild 64 </IfModule>

/etc/apache2/mods-available/fcgid.conf

<IfModule mod_fcgid.c> AddHandler fcgid-script .fcgi SocketPath /var/lib/apache2/fcgid/sock IdleTimeout 30 IdleScanInterval 30 BusyTimeout 300 BusyScanInterval 30 IPCConnectTimeout 3 IPCCommTimeout 60 MaxProcessCount 1024 DefaultMinClassProcessCount 0 DefaultMaxClassProcessCount 32 MaxRequestsPerProcess 150 PHP_Fix_Pathinfo_Enable 1 </IfModule>

Находил в интернете только вот это: У Apache есть опция MaxClients. У FastCGI-модулей тоже есть опции, задающие максимально допустимое количество процессов. Должны ли их значения совпадать? Нет. Т.к. при prefork каждый запрос порождает отдельный процесс Apache, параметр MaxClients контролирует максимальное количество этих процессов (максимальное количество одновременных запросов). FastCGI-процессы работают отдельно от Apache и их количество регулируется отдельным параметром (в зависимости от используемого модуля). Данные параметры могут не совпадать. Т.к. для отдачи статического контента FastCGI не используется, то в случае, если имеется большое количество статического контента, следует установить значение FastCGI-процессов меньше, чем MaxClients. Данные настройки подбираются индивидуально, в зависимости от объёма оперативной памяти и решаемых задач. В случае, если у Вас используется большое количество статического контента рекомендуется установить фронтэнд-сервер nginx.

Перемещено mono из General

Naymen
()

RSS подписка на новые темы