Xpoint
   [напомнить пароль]

Сжатие с большим псевдослучайным "словарём"

Метки: [без меток]
2018-01-02 18:50:06 [обр] Иван[досье]

Помогите с такой задачкой.

Есть два (для простоты) субъекта - Отправитель и Получатель.У них обоих есть один и тот же Большой Файл (размером, скажем, 100 Гб) заполненный "разнообразными" битовыми значениями.

Отправитель систематически отправляет Получателю файлы (размером, скажем, единицы Мегабайт) тоже с "разнообразными" битовыми значениями. (Я пишу "разнообразными", а не "случайными", чтобы не возникала обязанность обсуждать, в каком смысле они случайны или не случайны).

Хочется, чтобы:

  1. отправляемые файлы сильно сжимались с использованием Большого Файла как словаря;
  1. Получатель мог быстро прочитать (расшифровать) полученный файл с использованием ограниченного ресурса дополнительной (кроме занятой самим Большим Файлом) памяти;
  1. Отправитель не только может "долго" сжимать (шифровать) отправляемый файл (то есть производить много вычислений) и задействовать "много" дополнительной памяти, но, более того, желательно, чтобы степень достигаемого сжатия данных заметно росла по мере увеличения (в достаточно широких пределах) расходуемых ресурсов — количества операций и/или дополнительной памяти.

На что похожа эта задачка, и какие есть "заделы" в реализации подобных систем? Куда копать?

спустя 3 дня [обр] Евгений Седов aka KPbIC(0/176)[досье]
Начните писать, чтобы работало хоть как-то, в расчете на будущую оптимизацию. А потом уже будете задавать конкретные вопросы.
Powered by POEM™ Engine Copyright © 2002-2005