Чем архивировать JPG
Жопеги не уменьшатся в размерах алгоритмами сжатия без потерь (все эти tar, rar, zip и прочее, чем сжимают произвольные файлы — это сжатие без потерь). Более того, размер может даже вырасти.
Если хочется просто сгруппировать жопеги в один файл, пихай их в архивы без сжатия, благо многие архиваторы это умеют.
чтоб передавать по сети одним файлом.
«Но зачем?»
Если без сжатия не выходит, то можно и так просто, но ты потратишь немного лишних ресурсов (время на сжатие и распаковку).
Тогда, повторюсь, можно пользоваться любым архиватором без сжатия.tar для этого идеально подходит
Ну и прекрасно.
Пока фигачу tar-ом: tar -cvf ...Ты выбрал оптимальный вариант.
Но мне не понятно, что тебе в нём не нравится? Если ты задал вопрос, то явно он тебя чем-то не устраивает.
Можно не делать это всё в командной строке. В многих файловых менеджерах есть возможность это сделать нажатием одной кнопки.
Командная строка норм... накидал шел скрипт и повесил в крон - не напрягает, а даже наоборот: самому ничего жамкать не надо.
Ты выбрал оптимальный вариант.
Но мне не понятно, что тебе в нём не нравится? Если ты задал вопрос, то явно он тебя чем-то не устраивает.
Можно не делать это всё в командной строке. В многих файловых менеджерах есть возможность это сделать нажатием одной кнопки.
Вопрос задал из-за того, что не до конца был уверен, что при архивировании/разархивировании JPG-ов tar-ом не теряется часть инфы.
Проверил чексуммы до и после архивирования - совпадают -> вроде все нормально.
Вопрос задал из-за того, что не до конца был уверен, что при архивировании/разархивировании JPG-ов tar-ом не теряется часть инфы.Ты потому что путаешь термины архивация и сжатие. Так же на твой вопрос наверное можно было получить ответ в man tar.
Попкорн и пальма наготове.
find ./ -exec sh -c 'exit $((RANDOM%100>20))' \; -print0 | xargs -0 tar -cpf /path/to/target.tar
Он может сжимать с потерями, а может просто архивировать. Как повезёт
А в крон-то зачем?
надо раз в месяц собирать все jpg за предыдущий месяц и передавать по сети.
А в крон-то зачем?
Спасибо.
Ты потому что путаешь термины архивация и сжатие. Так же на твой вопрос наверное можно было получить ответ в man tar.
Действительно, до этого момента не разделял эти 2 термина.
С tar-ом все ок. Просто архивацию от сжатия не отличал/ю (надо погуглить) и когда-то давно читал, что одно из этого: толи архивация, толи сжатие может в каких-то случаях нехило фотки покоцать... вот и решил с доброфорумом посоветоваться, как лучше jpg-и группировать.
Если простая жизнь с таром кажется тебе недостаточно насыщенной
толи сжатие может в каких-то случаях нехило фотки покоцать...Сжатие с потерями (lossy) может покоцать. К слову, сам JPEG — это сжатие с потерями.
Сжатие без потерь (lossless) и архивация (как частный случай) — не могут.
Сжатие без потерь (lossless) и архивация (как частный случай) — не могут.Архивация — не частный случай сжатия(*). Просто многие программы сжатия осуществляют заодно и архивацию.
*) Ну если придираться, то можно и cat тоже частным случаем сжатия назвать.
Просто многие программы сжатия осуществляют заодно и архивацию.Не сжатия, а сжатия без потерь. Я имел в виду, что программы-архиваторы либо не сжимают данные вовсе, либо сжимают без потерь (иначе толку с них не будет), но выразился, наверное, недостаточно точно.
А есть алгоритмы сжатия с потерями чего угодно? Т.е. универсальный алгоритм, даешь ему необходимую долю (в процентах) файла, которую надо восстановить точно, а он архивирует с потерями...
айвенго вон привёл один, труЪ универсальный
а зачем?
А есть алгоритмы сжатия с потерями чего угодно? Т.е. универсальный алгоритм, даешь ему необходимую долю (в процентах) файла, которую надо восстановить точно, а он архивирует с потерями...для частного случая (50%) можно оставить только длину файла и ещё один бит
потом можно восстановить верно не менее половины битов (правда, не будет известно, какие именно верные)
не факт же, что это будет наиболее эффективное сжатие. Т.е. если нам можно испортить 50% инфы, то выбором, что портить, мы можем сильно влиять на эффективность.
Просто так.
Другое дело, что к картинкам/фильмам/музыке он в принципе при применении способен дать более-менее вменяемый результат.
А вот для произвольной инфы - далеко не факт.
А ещё есть фрактальные алгоритмы - вот по идее там вообще просто делать сжатие с потерями: просто обрезаешь по глубине дерева.
в моём примере про 50% - нетрудно доказать, что кодирование оптимально (в смысле неулучшаемо), в более общем случае - надо вспоминать про границу хэмминга, наверное
Т.е. если нам можно испортить 50% инфы, то выбором, что портить, мы можем сильно влиять на эффективность.Мне всегда было интересно применение "по рзелульаттам илссеовадний одонго анлигйсокго унвиертисета" к вопросу сжатия текста с потерями
к вопросу сжатия текста с потерямикстати... есть такой вариант сжатия текста с потерями, содержащего русский и английский текст: файл перекодируется в кодировку koi-8, после чего у всех байт отрезается старший бит, дальнейшее сжатие может быть по любому алгоритму. После восстановление получится вполне читаемый текст (особенность koi-8).
Мне всегда было интересно применение "по рзелульаттам илссеовадний одонго анлигйсокго унвиертисета" к вопросу сжатия текста с потерямиНу, типа, восходящая последовательность, тем более в пределах нижнего регистра алфавита, будет сильно меньше в размерах.
После восстановление получится условно читаемый текст (особенность koi-8).Только эту особенность не от хорошей жизни ввели же.
Оставить комментарий
macrophage
Всем привет!Чем в linux лучше архивировать JPG-файлы, чтоб при архивации/разархивации не страдало качество изображения?
Пока фигачу tar-ом: tar -cvf ...