Стиснення без втрат
Стиснення без втрат (англ. Lossless compression) — метод стиснення даних, при використанні якого закодована інформація може бути повністю відновлена зі стиснутих даних. Навпаки, стиснення з втратами дозволяє лише відновлення даних, які є тільки наближенням до початкових даних. Для кожного з типів цифрової інформації, як правило, існують свої оптимальні алгоритми стиснення без втрат.
Стиснення даних без втрат використовується в багатьох програмах. Наприклад, воно використовується в усіх файлових архіваторах. Воно також використовується як компонент в стисненні з втратами.
Стиснення без втрат використовується, коли важливо, щоб відновленні дані були ідентичні оригіналу. Типовий приклад — виконуваний файл або джерельний код, текстовий файл. Деякі графічні файлові формати, наприклад, PNG та GIF використовують тільки стиснення без втрат, тоді як формати TIFF та MNG можуть використовувати стиснення як з втратами, так й без втрат. Формати стиснення звуку без втрат використовується для архівування або виробничих цілей, в той час, як менші формати стиснення аудіо з втратами використовуються в аудіопрогравачах та в ситуаціях коли простір для зберігання інформації обмежений або нема потреби в точному відтворенні інформації.
Легко довести наступну теорему.
|
Доведення. Не обмежуючи спільність, можна припустити, що зменшився файл A довжини N. Позначимо алфавіт як . Розглянемо множину . У цій множині початкових файлів, в той час стиснених не більше ніж . Тому, відповідно до принципу Діріхле виникає протиріччя. ■
Втім, дана теорема анітрохи не кидає тінь на стиснення без втрат. Справа в тім, що будь-який алгоритм стиснення можна модифікувати так, щоб він збільшував розмір не більше ніж на 1 біт: Якщо алгоритм зменшив файл, пишемо «1», потім стиснені дані, якщо збільшив — пишемо «0», потім початкові дані.
Таким чином фрагменти, які не можливо стиснути, не спричинять неконтрольованого збільшення архіву. «Реальних» файлів довжини N набагато менше, ніж (кажуть, що дані мають низку інформаційну ентропію) — наприклад, малоймовірно, щоб «їїї» зустрілося в розумному тексті, а в оцифрованому звуці амплітуда не може в момент зрости з 0 до 100 %. До того ж шляхом спеціалізації алгоритмів на деякі типи даних (текст, зображення, звук, відео та ін.) вдається досягти високого рівня стиснення: таким чином застосовані в архіваторах універсальні алгоритми стискують звук приблизно у 1,5 рази, у той час як FLAC — у 2,5 рази. Більшість спеціалізованих алгоритмів малопридатні для файлів іншої природи: наприклад, звук погано стискається текстовими алгоритмами.
У загальних рисах значення стиснення без втрат полягає в пошуку закономірності в початкових даних і з її урахуванням генерації іншої послідовності, яка повністю описує початкову. Наприклад, для кодування бінарних послідовностей, в яких багато нулів та мало одиниць, ми можемо використати таку заміну:
00 → 0 01 → 10 10 → 110 11 → 111
В такому випадку шістнадцять бітів
00 01 00 00 11 10 00 00
будуть перетворені у 13 бітів
0 10 0 0 111 110 0 0
Така заміна є видом префіксного коду, тобто має таку особливість: якщо ми запишемо стиснений рядок без пропусків, ми все одно зможемо розставити в ній пропуски — а тому, і відновити початкову послідовність. Найбільш відомим префіксним кодом є код Хаффмана.
Більшість алгоритмів стиснення без втрат працюють у дві стадії: на першій генерується статистична модель для вхідних даних, друга представляє вхідні дані в бітовому вигляді, використовуючи модель для отримання «ймовірнісних» даних (тобто таких, що зустрічаються часто).
Статистичні моделі алгоритмів для тексту (чи текстових бінарних даних, таких як виконувальні файли) містять:
Алгоритми кодування через генерування бітових послідовностей:
Алгоритми стиснення без втрат не можуть гарантувати стиснення для усіх видів вхідних даних. Іншими словами, для будь-якого алгоритму стиснення без втрат, існує такий набір вхідних даних, які не зменшуються після обробки алгоритмом, а навпаки — збільшуються. Це було доведено раніше[⇨].
Будь-який алгоритм, що робить деякі файли меншими, повинен робити деякі файли більшими, але не обов'язково, що вони стануть дуже великими. Практично використовуються алгоритми, що забезпечують собі механізм «виходу», що зупиняє кодування файлів, які можуть стати більшими після дії стиснення. Теоретично, один лиш додатковий біт потрібен, щоб сказати декодеру, що кодування вимкнене для усіх вхідних даних; проте, більшість кодувальних алгоритмів використовують більше ніж один повний байт для цієї цілі. Наприклад, файли стисненні алгоритмом DEFLATE ніколи не збільшуються більше ніж на 5 байтів на 65 535 байтів вхідних даних.
Фактично, якщо ми розглядаємо усі рівноймовірні (тобто такі, чиє існування можливе з однаковою ймовірністю) файли довжини N, тоді для будь-якого стиснення без втрат, що зменшує розмір якогось файлу, очікуваний розмір стисненого файлу (в середньому серед усіх можливих файлів довжини N) повинен обов'язково бути більше ніж N.[джерело?] Таким чином, якщо ми нічого не знаємо про властивості даних, що збираємось стискати, нам не варто стискати їх взагалі. Алгоритми стиснення без втрат корисні тільки якщо ми швидше за все стискаємо певні види даних ніж інші; тоді алгоритм повинен бути розроблений для ефективного їх стискання.
Отже, головною думкою є не те, що можливо зробити гірше, а те, що не завжди можна отримати непоганий результат. Тоді під вибором алгоритму звичайно розуміється непрямий вибір підмножини з усіх файлів, що стануть корисно меншими. Це теоретична причина для того, що ми маємо мати різні алгоритми для різних видів даних: не існує такого алгоритму, що був би хорошим для будь-якого файлу.
«Трюк», що дозволяє алгоритмам стиснення без втрат (при використанні на даних для яких вони були спроектовані) послідовно стискати файли до меншого розміру, є те, що файли, для яких алгоритми спроектовані діяти, мають деяку форму легко змодельованої надмірності, яку алгоритм повинен видаляти, таким чином зменшуючи їх розмір внаслідок цієї надмірності. Алгоритми в цілому цілком конкретно налаштовані на конкретний вид файлу: наприклад, програми для стиснення аудіо не працюють на текстах і навпаки.
Зокрема, файли, що складаються з випадкових даних, не можуть бути успішно стиснені ні одним із розумних алгоритмів: дійсно, результат такої дії використовується для визначення концепції випадковості в теорії алгоритмічної складності.
Доведено, що неможливо створити алгоритм, який міг би стискати без втрат будь-які дані.[1] Втім, впродовж років компанії заявляють про досягнення «досконалого стиснення», при якому довільне число N випадкових біт можуть завжди бути стиснені до N − 1 біт. Ці заяви можуть бути надійно відкинені навіть без поглиблення у деталі реалізації схеми їх роботи. Ці алгоритми не можуть існувати через суперечність з основними законами математики, бо якщо такий алгоритм існує, він міг би використовуватись циклічно для стиснення даних до нульової довжини. З цієї причини, нібито досконалі алгоритми часто глузливо називають «магічними».
З іншого боку, було доведено[джерело?], що не існує жодного алгоритму визначення можливості стиснення файлу в сенсі колмогорівської складності. Хоча це можливо для будь-яких конкретних даних, навіть якщо вони здаються випадковими. Вони можуть бути істотно стиснені, навіть включаючи розмір декомпресора. Як приклад можна навести цифри числа , що виглядають випадковими, але можуть бути створені дуже маленькою програмою (для пі це пояснюється тим, що його можна уявляти у вигляді нескінченного ряду, що на комп'ютері обчислюється ітеративно). Проте, хоч не може бути визначено, чи конкретний файл нестисливий, проста теорема про нестисливі рядки показує, що більше ніж 99 % файлів будь-якої даної довжини не можуть бути стиснені більше ніж на один байт (включаючи розмір декомпресора)
Абстрактно кажучи, алгоритми стиснення можуть бути розглянуті як функції що діють на послідовності (зазвичай байтів). Стиснення успішне, якщо результативна послідовність менша ніж оригінальна (разом з інструкціями для мапи декомпресії). Для того, щоб алгоритм стиснення був без втрат, мапа компресії має формувати взаємно однозначну відповідність між звичайними та стисненими послідовностями бітів.
Принцип Діріхле вказує на відсутність бієктивного відношення між колекцією послідовностей довжини N та будь-якою підмножиною послідовностей довжини N — 1. Тому неможливо розробити алгоритм, що зменшує розмір будь-якої вхідної послідовності.
Більшість повсякденних файлів відносно «рідкісні» з точки зору інформаційної ентропії, але таким чином, найбільш ефективні алгоритми стиснення без втрат застосовуються звичайними людьми для непоганого стиснення своїх звичайних файлів. Це може, через неправильне застосування інтуїції, привести деяких людей до думки, що добре спроектовані алгоритми можуть стискати будь-які вхідні дані, таким чином, визначаючи їх як магічні.[джерело?]
Розробники алгоритмів стиснення розуміють, що потоки високої інформаційної ентропії не можуть бути стиснені, та відповідно включають до своїх програм механізми виявлення і обробки цієї умови. Очевидним способом виявлення це використання сирого алгоритму стиснення та перевірку на стискання вихідного файлу. Іноді виявлення проводиться евристикою; наприклад, програма стиснення може розглядати файли, що мають закінчення «.zip», «.arj» або «.lha», такими, що вже більше не можуть бути стиснені. Загальний спосіб обробки цієї ситуації — це «цитуючий вивід», тобто вихідні дані мають частини вхідних даних, що дозволяє мінімізувати дію злоякісного збільшення після стиснення. Для прикладу, zip формат специфікує «метод стиснення» вхідних даних, що буквально копіюються до архіву.[2]
Марк Нельсон, у відповідь на заяви про магічні алгоритми, створив 415 241 байтовий бінарний файл, що містить дані високої ентропії, та заявив про публічний виклик з нагородою в $100 для будь-кого, хто напише програму для стиснення файлу до розміру, який разом з розміром самої програми буде меншим від розміру оригіналу, та що зможе декодувати файл без помилок.[3]
В часто заданих питаннях (FAQ) новинної групи по стисненню міститься виклик Майка Голдмана[4], що пропонує $5 000 за програму, що може стискати випадкові дані. Патрік Крейг взяв учать у виклику, але перед стисненням він розбив вхідні дані на окремі файли, що закінчуються на 5, яка не зберігається як частина файлу. Опускаючи цей символ, він отримав в результаті розміри файлів (також, відповідно до правил, разом з розміром програми, що збирає їх докупи) менші ніж оригінал. Проте, фактично стиснення не відбулося, та інформація зберігається під назвами, необхідними для коректного відновлення оригіналу, і ця інформація не рахувалась разом з розміром файлів. Таким чином самих файлів недостатньо для відновлення; назви файлів також необхідні. Патрік Крейг погодився, що ніякого стиснення не відбувалось, але аргументував це тим, що умова виклику цього не потребувала. Повну історію цієї події, включаючи обговорення речей, що не відносяться до технічної сторони виклику, міститься на вебсайті Патріка Крейга.[5]
- Родина алгоритмів Лемпеля-Зіва
- RLE
- Алгоритм Шеннона-Фано
- універсальні:
- аудіо
- зображення —
- відео —
- ↑ comp.compression FAQ list entry #9: Compression of random data (WEB, Gilbert and others)
- ↑ ZIP file format specification [Архівовано 2014-12-05 у Wayback Machine.] by PKWARE, Inc., chapter V, section J
- ↑ Nelson, Mark (20 червня 2006). "The Million Random Digit Challenge Revisited". Архів оригіналу за 5 червня 2016. [Архівовано 2016-06-05 у Wayback Machine.]
- ↑ Compression of random data.
- ↑ Craig, Patrick (26 березня 2001). The $5000 Compression Challenge (англ.).
Це незавершена стаття про інформаційні технології. Ви можете допомогти проєкту, виправивши або дописавши її. |