LINUX.ORG.RU

Сообщения kuzyara

 

меньше фрагментации - быстрее торрент

Почему никто ещё не придумал способов закачки с обходом ограничения рандомной скорости записи хардов?

Свои 100mbit забить тупо не получается!

Насколько я понимаю чем линейнее запись - тем выше скорость. Если последовательную загрузку уже изобрели и выделить сотню-другую мегабайт RAM для торрента не проблема, так почему ещё нет механизма быстрой последовательной записи на диск?

Продолжение мысли: у торрента размером 1,5gb размер так называемых кусочков ~2mb, что мешает скачать 10 таких кусков и последовательно их записать? Как вам идейка, а?

kuzyara
()

inadyn

Почему inadyn выдает ошибку и не обновляет запись dyndns?

kuzyara@kuzyara-VirtualBox:~$ inadyn -u kuzyara -p password -a kuzyara.dyndns.org 
INADYN: Started 'INADYN version 1.96.2' - dynamic DNS updater.
W:'RC_DYNDNS_INVALID_RSP_FROM_IP_SERVER' (0x42) updating the IPs. (it 0)
^COS_UNIX:Signal '0x2' received. Sending 'Shutdown cmd'.
STOP command received. Exiting.
kuzyara@kuzyara-VirtualBox:~$ 
Совсем запутался...

kuzyara
()

как скачать первые N байт файла?

Чем скачать первые N байт файла, если сервер не поддерживает заголовок Range?

curl -r 0-100 http://wotreplays.ru/site/download/1490235 - не работает

 

kuzyara
()

удаление лишних торрент-закачек

Каждое утро с рутрекера парсится 20 .torrent-файлов киношек с наибольшим количеством сидов, и ставится на закачку в aria2c. Может кому пригодится скрипт:

#!/bin/bash

TR_HOST="rutracker.org"
TR_USER="vasiliy"
TR_PASSWORD="pivo"

SC_COOKIE="/tmp/gt-$TR_HOST-$TR_USER.ck"
SC_UA="Mozilla/5.0 (X11; U; Linux x86_64; ru; rv:1.9.2.15) Gecko/20110303 Ubuntu/10.10 (maverick) Firefox/3.6.15"


    echo "---Cheking auth"
    if [ -w $SC_COOKIE ]; then
	aut_page="`curl -b $SC_COOKIE  -c $SC_COOKIE -A "$SC_UA" "http://rutracker.org/forum/index.php"`"
#	echo "$aut_page" > aut_page.html
	result=`echo "$aut_page" | egrep -o "$TR_USER"`
    fi

sleep 1
echo "---$result";
if [ -z "$result" ]; then
    echo "---Makin auth";
    autpath="http://login.rutracker.org/forum/login.php";
    if [ -w $SC_COOKIE ]; then
	cookie_data=`cat $SC_COOKIE`
	curl --trace-ascii - -b $SC_COOKIE  -c $SC_COOKIE -A "$SC_UA" -d "login_username=$TR_USER" \
		-d "login_password=$TR_PASSWORD" --data-binary "login=%C2%F5%EE%E4"  "$autpath">/dev/null
    else
	curl --trace-ascii - -c $SC_COOKIE -A "$SC_UA" -d "login_username=$TR_USER" \
		-d "login_password=$TR_PASSWORD" --data-binary "login=%C2%F5%EE%E4"  "$autpath">123.html
    fi
fi

sleep 1
echo "get list_id"
tracker_page="`curl  -b $SC_COOKIE -c $SC_COOKIE -A "$SC_UA" -d "o=10" -d "s=2" 	"http://rutracker.org/forum/tracker.php"`"
echo "$tracker_page" > /tmp/tracker_page.html
#echo $tracker_page | xargs | iconv -t utf8 -f cp1251 | grep -P -o '<tr .*?</tr>' | egrep -i 'фильмы' | egrep -i 'проверено'
list_id=`echo "$tracker_page" | \
	tr -d "\n" | iconv -t utf8 -f cp1251 | \
	grep -P -o '<tr .*?</tr>' | egrep -i "Фильмы" | egrep -i "проверено" | \
	grep -P -o '(?<=dl.php\?t=)[0-9]*' | head -n 20`
echo -e "---List_id:\n$list_id";
if [ -z "$list_id" ]; then
	echo "--Parsing error!"
	exit
fi

rm -f /tmp/\[rutracker.org\]*
#rm -r /mnt/FILMS/*

for id in $list_id
do
echo "---Loading $id"
curl --cookie "bb_dl=$id" -b $SC_COOKIE -c $SC_COOKIE -A "$SC_UA" -o "/tmp/[rutracker.org].t$id.torrent"  \
        -e "http://rutracker.org/forum/viewtopic.php?t=$id" "http://dl.rutracker.org/forum/dl.php?t=$id"
done
#find /mnt/ALL/\!Софт/2GIS* | sort | sed -n 2,+99p | xargs rm -f
#curl -s irkutsk.2gis.ru | grep -P -o "http://download.2gis.ru/arhives/2GISShell.*?\.exe" | xargs wget -cP /mnt/ALL/\!Софт/


#screen -d -m -L 
aria2c --no-conf --seed-time=0 --bt-max-peers=5 -V -j20 -d /mnt/FILMS /tmp/\[rutracker.org\]*

cd /mnt/FILMS/
rm -f *.aria2
ls -t1 | sed -n 21,+99p | while read file; do rm -rf "$file"; done;

Чтобы удалять лишние фильмы я перед началом закачки сортирую по возрасту и удаляю файлы с 21-го:
ls -t1 | sed -n 21,+99p | while read file; do rm -rf "$file"; done;
Проблема в том, что удаляется и то, что можно было не удалять и вместо, например, 2 новых фильмов, которые сегодня утром появились в этом «топе», на закачку ставится(перекачивается) 4-5, я думаю вы уже поняли почему.
Как оптимизировать эту «синхронизацию»?

 rutracker parser парсер

kuzyara
()

глюки cron и screen

Здравствуйте. Столкнулся с ситуацией, когда скрипт в screen выводит другие результаты, в отличие от ручного запуска. Хотел распарсить сайт, да не выходит, вот пример:

kol@servak:~$ cat /tmp/tracker_page.html 
	<td class="row1"><a class="gen f" href="tracker.php?f=2093">������ 2011-2012</a></td>
kol@servak:~$

это часть страницы в cp1251, кракозябры - слово «Фильмы»

скрипт:

kol@servak:~$ cat /etc/cron.d/test.sh 
#!/bin/bash

cat /tmp/tracker_page.html | xargs | iconv -t utf8 -f cp1251 | egrep -i 'фильмы' 
echo "111";
kol@servak:~$

при запуске из консоли скрипт выводит содержимое файла, однако(!):
08 13 * * * screen -m -d -L -U /etc/cron.d/test.sh
хотя я и включил поддержку utf8(-U), такая запись в кроне ничего не выводит в лог файл(-L)!

root@servak:/tmp# cat /root/screenlog.0 
11
root@servak:/tmp#
маленькая деталь: в скрипте 3 единицы, а в логе 2 (sic!)

Подскажите, как быть?

 cron screen

kuzyara
()

xargs - моя борьба

[code=bash]kol@servak:/mnt/FILMS$ ls -t1 | sed -n 21,+99p | xargs -l -0 -I {} rm -r «{}»
rm: невозможно удалить «Medaljon.2012.x264.BDRip.(AVC).fanatus.mkv\nPrometej.2012.XviD.BDRip.-AllFilms.avi\nZhazhda.stranstvij.2012.x264.BDRip.(AVC).fanatus.mkv\nBelosnezhka.I.Ohotnik.2012.BDRip (Extended).avi\nMrachnie.Teni.2012.BDRip.avi\nSafe.2012.BDRip.x264.DD5.1.Rus.Eng-E76.mkv\nPrezident.Linkoln.Ohotnik.Na.Vampirov.2012.BDRip.avi\nMen.in.Black.3.2012.BDRip\nThe Day.2011.HDRip.avi\nPapa.dosvidos.2012.DVDRip.Theatrical.Cut.by.Scarabey.avi\nThe.Dictator.UNRATED.2012.HDRip.Kireev\nThe.Amazing.Spider-Man.2012.DVDRip-AVC.Rus.Eng.Subs.mkv\nUn bonheur n'arrive jamais seul 2012 x264 BDRip-AVC Gambit.mkv\n»: Слишком длинное имя файла
[/code]
удаляю старые файлы, а без -0 xargs ругается на кавычки, подскажите как быть?

зы: как заставить работать этот грёбаный лоркод!?

kuzyara
()

aria2c - перехеширование

[code=bash]kol@kol-laptop:~$ aria2c --seed-time=1 --auto-save-interval=10 --bt-hash-check-seed=true \[rutracker.org\].trar3407314.torrent

2012-10-25 12:00:58.797686 ERROR - Обнаружено исключение
Exception: [RequestGroup.cc:333] Файл /home/kol/WinRAR40.exe существует, но управляющий файл (*.aria2) отсутствует. Загрузка отменена чтобы не обнулить существующий файл. Если вы хотите перезаписать файл, то удалите его или добавьте опцию --allow-overwrite=true и перезапустите aria2.

Результат загрузки:
gid|stat|avg speed |path/URI
===+====+===========+===========================================================
1| ERR| n/a|/home/kol/WinRAR40.exe

Использованные обозначения:
(ERR):error occurred.

aria2 продолжит загрузку, если передача будет перезапущена.
Если возникли какие-либо ошибки, проверьте log-файл. Для более подробной информации смотрите описание опции '-l'.[/code]
Пробовал запускать закачку с опцией --auto-save-interval=10, но *.aria2 файл вс равно не появляется, как перехешировать то?

 

kuzyara
()

управление rtorrent

я скриптом скачиваю торренты с трекера в папку.
Вопрос, как сделать так, чтобы раз в сутки rtorrent автоматически закачивал новые торренты, старые удалял при нехватке места на диске, а потом закрывался?

 

kuzyara
()

rutracker.org - логин wget'ом

[code=bash] wget --keep-session-cookies --save-cookies cookies.txt --post-data «login_username=kuz555&login_password=12345678&login=Вход» --header='Host: login.rutracker.org' --header='User-Agent: Mozilla/5.0 (X11; Ubuntu; Linux i686; rv:14.0) Gecko/20100101 Firefox/14.0.1' --header='Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8' --header='Accept-Language: en-us,en;q=0.5' --header='Connection: keep-alive' --header='Referer: http://rutracker.org/forum/index.php' --header='Cookie: spylog_test=1' http://rutracker.org/forum/index.php
[/code]
даже куки не сохраняет. как(чем) залогиниться на рутрекере и пропарсить его?

зы: задача состоит в том, чтобы забрать первые 20 фильмов с наибольшим количеством сидов

 rutracker wget

kuzyara
()

создание системы распознавания лиц в видеопотоке

Подскажите, реально ли создание такой системы в качестве дипломной работы?

Я пытался читать документацию OpenCV, но мало что понял.

Возможно ли найти «наставника» для выполнения данной работы?

kuzyara
()

распознавание лиц в видеопотоке

возник интерес к этой теме, сам ничего толкового не нашел. Фейсбук там, пиказа давно уже распознают кто на твоих фотках. Кто знает подобные проекты под linux, подскажите?

kuzyara
()

посмотрите мой bash-скрипт

ребята, я изучаю bash, code.google.com и практикуюсь в написании скриптов, посмотрите пожалуйста мой код, может можно его как улучшить? https://code.google.com/p/video-sibnet-ru-downloader/source/browse/trunk/sibn...

я думаю что взгляд опытного человека сразу сказал бы - вот тут ты делаешь по нубски, может вылезти ошибка или вообще вместо этих 3 строчек можно написать одну, или логика запутанная или не знаю ещё что там

kuzyara
()

правильное имя файла 2

Извините, у меня такое впервые, что мой вопрос никто не понимает:)

Я скачиваю страницу «video.sibnet.ru/rating» wget'ом, парсю все ссылки на скачивание роликов в $list, парсю описания(названия в alt="...") к этим роликам в $rus_list, потом скачиваю wget «${list[$i]}» -O «${rus_list[$i]}.flv».

Дело в том, что названия роликов составляются людьми и там могут быть недопустимые символы, например «/»(других не знаю). Так вот, какие символы надо заэкранировать, а какие вообще убрать из ${rus_list[$i]}, чтобы стало корректное имя файла(или чтобы wget не заругался)?

 

kuzyara
()

правильное имя файла

я с сайта с видео-роликами парсю и скачифаю файлы, но их названия на русском языке, как правильно из такой строки $str сделать имя файла, чтоб его можно было скормить wget -O «$str»?

ещё раз: есть строка руский/англ текст и другие символы, как из неёё сделать корректрое имя файла для сохранения на диск?

kuzyara
()

wget, обход защиты на скачивание видео

kol@kol-laptop:~/1$ cat sib.sh 
#/bin/bash
xml=`wget -q "http://video.sibnet.ru/shell_config_xml.php?videoid=652751&type=video.sibnet.ru" -O-`
#echo $xml
url=`echo $xml | grep -Po "(?<=<file>).*(?=</file>)"`
#echo $url
wget -S --spider "$url" -o /tmp/wget.log
#cat /tmp/wget.log
grep -iraoP "(?<=Content-Length: )[0-9]*" /tmp/wget.log | tail -n 1

kol@kol-laptop:~/1$ ./sib.sh 
25664798

Хочу программно скачать видео с одного внутризонового сайта, для этого нужно пройти по ссылке вида _h_t_t_p://video.sibnet.ru/shell_config_xml.php?videoid=id_video&type=video.sibnet.ru и взять урл файла в теге <file>.

Мышкой в браузере это работает, в вот через wget нет :(

Дело в том, что у них там какая-то защита стоит, чуть-что - выдаёт заглушку-ролик-рекламу весом 25664798 байт. Настоящий же размер файла с id 652751 равен 38751450 байт.

Можно ли средствами wget таки скачать это видео?

 sibnet, ,

kuzyara
()

и снова sticky bit

kol@servak:/mnt/ALL$ sudo mkdir qq
kol@servak:/mnt/ALL$ sudo chattr +u qq
kol@servak:/mnt/ALL$ rm -r qq
rm: удалить защищенный от записи каталог «qq»? y
kol@servak:/mnt/ALL$ 

Как запретить удаление папки но оставить возможность создания поддиректорий? Бит +u не работает((

kuzyara
()

transmission-daemon, вскрытие

Имеется исходник: transmission-1.93.tar.xz

Задача: найти участок кода, в котором обрабатывается приходящее на 9091 порт сообщение (rpc-server.c обрабатывает как я понял) и добавить условие - если пакет пришел не с 192.168.0.1(клиент на моём компе), то запретить удаление чужих раздач (связка transmission-daemon - transmission-remoute.NET).

Я рассуждаю так: Если это демон, значит где-то должен быть цикл, в котором обрабатываются все приходящие сообщения, но вот найти его я не могу! Комментариев в коде почти нет. Какова структуры программы, взаимодействие модулей, логика, иерархия и вообще, как в этом разобраться!?

Опытные юниксоиды, подскажите, как вы раскуриваете такой код? Нифигаж нипанятно! :dash1

kuzyara
()

RSS подписка на новые темы