ЗЫ: вообще-то я думаю по сколько по директориям раскидать (чтобы было удобно смотреть), или тупо в базу залить.... Все равно единично с ними работать не буду.
> ЗЫ: вообще-то я думаю по сколько по директориям раскидать (чтобы было удобно смотреть), или тупо в базу залить.... Все равно единично с ними работать не буду.
нет, я всё понимаю, но почти миллион порнокартинок - IMHO это уже перебор.
Если интересно, то эти 861.000 файлов -- количество доменов 2-ого уровня в зоне рунета, которые отдают хоть какую-то инфромацию (из более чем 1.300.000).
> Если интересно, то эти 861.000 файлов -- количество доменов 2-ого уровня в зоне рунета, которые отдают хоть какую-то инфромацию (из более чем 1.300.000).
Не надо было ls -al делать. Так он в каждый inode лезет.
Надо было сначала zip'ы найти, потом _только_ на них
ls -l натравливать.
если find не освоил, то в множестве твоих команд, так делай:
ls -a1 | grep zip | xargs ls -l > out.txt
Да и расскажи мне о разнице во времени работы, вдруг я ошибаюсь.