Гигабайт информации или можно сжать в 14 байт

Гигабайт информации
0
Нейтральная
сторона
2
можно сжать в 14 байт
8
из произвольного источника без потерь сжать в 14 байт нельзя
Прежде чем писать комментарии или выбрать сторону вы должны авторизироваться!
без потери даже гигабайт произвольной информации

31-05-2015 15:54 0

Да, а потом все на флешку-фломастер записать.

0 комментариев
31-05-2015 15:56 0

Вот тут даже есть работающий архиватор: www.gamedev.ru/flame/forum/?id=191249

0 комментариев
31-05-2015 16:10 0

Честно говоря, давно уже понять не могу, почему ещё не придумали нули-единички переводить в некую короткую функцию, которой потребуется только указание "среды" и точка окончания.

11 комментариев
Gopnik 31-05-2015 16:20 +1

Simple_Not, Потому что возможно, что один из параметров будет весить больше, чем исходные данные.

Simple_Not 31-05-2015 16:27 0

Gopnik, Мне остаётся только предложить пережать ещё и параметры.

opera.rulez 31-05-2015 16:44 0

Simple_Not, Подсказка: параметры — это тоже информация, подчиняющаяся тем же законам, что и основное содержимое.

Simple_Not 31-05-2015 17:03 0

opera.rulez, В отличии от изначальной информации они уже представляют собой хоть сколько-нибудь вменяемую структуру.

Gopnik 31-05-2015 17:53 +5

Simple_Not, Если ты под функцией понимаешь некое выражение, которое надо подобрать, и которое с заданными параметрами выдаст исходное значение- это гиблое дело, задача явно NP класса, с современными машинами я бы на запаковку мегабайта даже не рассчитывал, твой калькулон будет молить о пощаде уже на килобайтах, а запакованный гигабайт мы вряд ли получим в этом десятилетии.
Алсо если ты хочешь запилить так, чтобы твой архиватор еще и выдавал сжимаемые им же коэффициенты, то я бы даже не наделся, на то, что доживешь до того момента, когда он выдаст хоть какой нибудь результат.
Так же следует помнить, что чем больше байт, тем больше значений, в 3 байта просто невозможно будет запаковать все значения из 4, какой то набор да, но не все. В итоге в это упрется любой способ, какой бы ты не придумал.
С современной архивацией не так печально, но для каждого алгоритма есть данные, которые сжать можно, и которые нельзя, и если ты один раз уже что то заархивировал, второй раз значимого результата скорее всего уже не будет.
И суть хорошего алгоритма в том, чтобы сжимать самые вероятные данные за приемлемое время, а не в том, чтобы сжимать что то конкретное до размеров атома, пронзая небеса временем выполнения.

fhfh 31-05-2015 18:16 0

Gopnik, а если применить вореции?

opera.rulez 31-05-2015 19:11 0

fhfh, А больше ничего не остаётся. Архиватор Бабушкина уже продемонстрировал свою неработоспособность.

Simple_Not 01-06-2015 02:56 0

Gopnik, Для начала, подозреваю, придётся научиться конструировать подобную муть снизу вверх. Ну и для каждого типа файлов явно будет свой алгоритм.

Kiok 01-06-2015 06:26 0

Simple_Not, Мне кажется что для каждого отдельного файла нужен будет свой алгоритм.

Simple_Not 01-06-2015 16:31 0

Kiok, Скорее для типа файлов.

opera.rulez 13-04-2016 16:58 +1

fhfh, > а если применить вореции?

Затра ищешь в интернете кижку «Кобенаторика и теория вореантности» изадние с испровленеми и доаолениями под ред. Т. Б. Похуй если ничего не поймешь. Затем идешь на gamedev и изучаешь стандартные вореции от корки до корки. Потом зуьришь, исменно, сука, выубриваешь ковецию по написанию разположения информация, чтобы от зубов отскакивало.

Когда напишешь свой первый бредогенератор, по пути изучив натализатор и шизофазию, скачиваешь и изучпешь любоц квант зожатия ворецией, рекомендую 0х00-0хFF. Как переделаешь генератор, чтобы выдавал по крайней мере 100500 тысяч кобенаций в секунду, можешь идти дальше - тебя ждет увлекательный мир хуйлоада. Дзенский мастер Питушня, сверхтвёрдая синтаксиальная психоза, Имперации. Отсос заедушных выблядков / просто неудачников типа SEO или яндекс/гугл-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты свихнёшься настолько, что любая кащенка будет течь слюной при одном упоринании спика твоих патологий.


Источник.

31-05-2015 16:37 0

42

0 комментариев
01-06-2015 16:21 +1

Я лет десять назад задавался этим вопросом, только иначе его формулировал. Фактически это не архивация, а "телепорт" данных - подбор содержания по контрольной сумме и точному размеру. Теоретически - возможно, но мощности нужны неебические.

4 комментария
opera.rulez 01-06-2015 16:31 +1

BaeFAQs, Подбор — интересная тема. Даже были какие-то исследования по подбору MD4 и MD5. Вот только подобраться может лажа, а не исходный файл...

Кстати, в какой-то из p2p-сетей (Napster или Fasttrack/Kazaa, я точно не помню) контрольная сумма считалась только от первых 300 килобайт файла (для скорости), чем тут же воспользовались копирасты: стали выкладывать файлы, у которых первые 300 килобайт заполнены оригинальным содержимым, а остальное — мусором. Довольно быстро сеть стала неюзабельной.

Simple_Not 01-06-2015 16:33 0

BaeFAQs, Вообще, было бы куда ближе к работе человеческих голов. Мы ведь тоже не транспортируем смысл целиком - у нас нет для этого средств передачи (а, быть может, и восприятия).
В принципе можно учудить некий набор заготовок, при взаимодействии с которыми алгоритм будет давать желанный файл.
Правда, это уже будет вовсе не архивация.

Gopnik 01-06-2015 21:40 +5

Simple_Not, Продолжай, еще чуть чуть и ты изобретешь сжатие с потерями.

Simple_Not 02-06-2015 01:59 +1

Gopnik, Прийти от пространных рассуждений к уже проверенной рабочей технологии - это же замечательно!

13-04-2016 01:41 0

0 комментариев