На бирже курсовых и дипломных проектов можно найти образцы готовых работ или получить помощь в написании уникальных курсовых работ, дипломов, лабораторных работ, контрольных работ, диссертаций, рефератов. Так же вы мажете самостоятельно повысить уникальность своей работы для прохождения проверки на плагиат всего за несколько минут.

ЛИЧНЫЙ КАБИНЕТ 

 

Здравствуйте гость!

 

Логин:

Пароль:

 

Запомнить

 

 

Забыли пароль? Регистрация

Повышение уникальности

Предлагаем нашим посетителям воспользоваться бесплатным программным обеспечением «StudentHelp», которое позволит вам всего за несколько минут, выполнить повышение уникальности любого файла в формате MS Word. После такого повышения уникальности, ваша работа легко пройдете проверку в системах антиплагиат вуз, antiplagiat.ru, etxt.ru или advego.ru. Программа «StudentHelp» работает по уникальной технологии и при повышении уникальности не вставляет в текст скрытых символов, и даже если препод скопирует текст в блокнот – не увидит ни каких отличий от текста в Word файле.

Результат поиска


Наименование:


курсовая работа Вероятностно-статистические модели сообщений и их энтропийные свойства

Информация:

Тип работы: курсовая работа. Добавлен: 07.07.2012. Сдан: 2011. Страниц: 6. Уникальность по antiplagiat.ru: < 30%

Описание (план):


     Содержание 

Введение . ....................................................5
1 Вероятностно-статистические характеристики сообщений .............6
2 Совершенная  секретность. .....................................16
3 Выводы   ...................................................22
Зкалючение  ..................................................23
Список  использованных источников ...............................24 
Реферат

     Курсовая  работа содержит 24 страницы формата  А4, 1 рисунок. 

     ВЕРОЯТНОСТЬ, ЧАСТОТА ВСТРЕЧАЕМОСТИ, ЭНТРОПИЯ, АБСОЛЮТНАЯ НОРМА ЯЗЫКА, ЭНТРОПИЯ ЯЗЫКА, БИТ, ИЗБЫТОЧНОСТЬ, ИЗБЫТОЧНОСТЬ ЯЗЫКА, СООБЩЕНИЕ, ОТКРЫТЫЙ ТЕКСТ, КРИПТОАНАЛИЗ, КРИПТОСТОЙКОСТЬ, КРИПТОСИСТЕМА, КРИПТОГРАММА, СИМВОЛ, СЛОВО, ИНФОРМАЦИЯ, СОВЕРШЕННАЯ СЕКРЕТНОСТЬ, РАССТОЯНИЕ УНИКАЛЬНОСТИ.
     В данной работе произведено исследование вопросов оценки эффективности криптосистем на основе вероятностно-статистических характеристик зашифрованных сообщений.
Результатом исследования являются выводы относительно требований к характеристикам сообщений.  
Введение
 

Актуальность  темы данного исследования заключается  в том, что в оценке эффективности  криптосистем на основе анализа генерируемых ими зашифрованных сообщений  удобно применять определенные характеристики. Удобство этого метода состоит в  том, что можно производить анализ непосредственно сообщений, не вдаваясь в подробности применяемых алгоритмов шифрования. Тем самым, производится объективная оценка сложности с точки зрения криптоаналитика на основе численной оценки получаемой им информации посредством перехваченного сообщения, при условии, что ему может быть известен алгоритм, но не известен ключ. 
1. Вероятностно-статистические характеристики сообщений
 

     Сообщения (открытые тексты и криптограммы) обладают вероятностно-статистическими характеристиками, используемыми в криптоанализе и теории связи. Эти характеристики очень важны при осуществлении защиты информации. Сущность их описана ниже. 

     Частота встречаемости. Любой язык содержит набор слов, которые образуются из последовательности символов, составляющих алфавит языка. Таким образом, текстовые сообщения и криптограммы состоят из последовательности символов. Криптограмму, как и открытый текст, можно подвергнуть статистической обработке, результатом которой будет частота встречаемости каждой из букв в данном сообщении, определяемая как отношение количества одинаковых букв к длине сообщения.
     Если  разбить текст на биграммы (пары соседних букв), можно аналогичным  образом оценить их статистику. Таким  же образом оценивается частота  встречаемости триграмм, тетраграмм и т.д.
     В естественных языках частоты встречаемости  различных букв сильно отличаются. Например, наиболее часто в текстах на русском языке встречаются три гласные буквы: О, И, Е. Следом идут буквы Т, Н, А, С. Отличаются по частотам и биграммы: среди которых чаще всего в русском языке встречаются ТС, ОН, ИН, НЕ, ВО, ОТ, СО. Эти характеристики могут быть разными для различных предметных областей. 

     Энтропия. Рассмотренные выше характеристики отражают лишь поверхностные свойства сообщений. Более глубокие свойства текстов изучаемые методами теории информации, разработанной K. Шенноном, это "количество информации", содержащейся в сообщении. Для понимания этого свойства необходимо ввести  меру количества информации. Оно связано c понятием энтропии, определяемой функцией от вероятностного распределения и характеризующей количество неопределенности или информации в случайном эксперименте. К. Шеннон предложил признать формулу:
     прирост информации = устраненной неопределенности,
выражающей  закон сохранения энтропии. На основании этой формулы неопределенность и информация должны измеряться одной и той же мерой.
      Энтропия  Н(?) определяется формулой:

                                           ,
где pi – вероятность i-го символа, n – количество различных символов алфавита, присутствующих в сообщении. Единицу измерения энтропии вероятностной схемы предлагает так называемая теорема кодирования, утверждающая, что любой исход можно закодировать символами 0 и 1 так, что полученная длина кодового слова будет сколь угодно близка сверку к Н(?).
      На  основании этого единицей количества информации естественно считать  1 бит. Легко видеть, что если р1 =1/п при всек i=1, п, то Н =1og2 п. Кроме того, в общем случае имеет место неравенство Н(?) >= 0, причем Н(?)= = 0 в том и только в том случае, когда рi =1 для некоторого i и рj = 0 для всех j?i.
      Мерой среднего количества информации, приходящейся на одну букву открытого текста языка L (рассматриваемого как источник случайнык текстов), служит величина НL , называемая энтроnией языка L. В общем случае следует взять энтропию вероятностной скемы на r-граммах, деленную на r. Соответствующие вычисления для английского языка дают: Н2/2 ? 3,56, Н3/3 ? 3,3. Исследования показывают, что с ростом r отношение Нr/r стремится к некоторому пределу. Этот предел определяется как энтропия языка НL.
 
 

При этом формула
 

определяет  избыточность языка RL .
     Термин "избыточность языка" возник в  связи с тем, что максимальная информация, которую в принципе могла  бы нести каждая буква сообщения, равна Н0 =1oga n , где п - число букв в алфавите. Так было бы в случае, если бы буквы сообщения появлялись случайно и равновероятно. В то же время средняя энтропия буквы в открытом тексте значительно меньше n, следовательно, буква несет меньше информации, чем loga n. Величина loga n - - НL характеризует, таким образом, неиспользованные возможности в передаче информации с помощью текста, а отношение
       

в некотором  смысле показывает, какую часть букв открытого текста можно опустить без потери содержания. Имеется в  виду, что потерянная информация будет восстановлена другими буквами сообщения вследствие закономерностей языка.
     Клод  Шеннон предложил оригинальный метод  оценивания отношения Нr /r для осмысленных текстов с позиции меры неопределенности опыта, состоящего в угадывании r-й буквы текста, при условии, что предшествующие его буквы известны. Эксперимент по угадыванию r-й буквы текста легко может быть поставлен. Для этого достаточно выбрать осмысленный отрезок открытого текста длины r-1 и предложить кому-либо угадать следующую букву. Подобный опыт может быть повторен многократно, при этом сложность угадывания r-й буквы может быть оценена с помощью среднего значения числа попыток Fr , требующихся для нахождения правильного ответа. Ясно, что величины Fr для разных значений r являются определенными характеристиками статистической структуры языка. Очевидно, что среднее число попыток Fr с ростом r может лишь уменьшаться. Прекращение этого уменьшения будет свидетельствовать о том, что соответствующие опыты имеют одинаковую неопределенность, то есть что отвечающая им величина Hr /r практически уже достигла своего предельного значения НL .
     Исходя  из зтих рассуждений, К. Шеннон произвел ряд подобны[ экспериментов, в которых  r принимало значения 1,15 и 100. При этом он обнаружил, что отгадывание сотой буквы по 99 предшествующим заметно более просто, чем угадывание 15-й буквы по 14 предыдущим. Опыты показали, что с ростом r величина Hr /r убывает вплоть до r ? 30, а при дальнеишем росте r она уже практически не меняется. Согласно исследованиям Б. Б. Пиотровского, имеют место следующие приближения величины НL , которые приведены в таблице 1:
     Таблица 1 – Энтропия и избыточность языков
     
     Из  приведенной таблицы видно, что  языки имеют весьма большую избыточность, Что означает, например, избыточность, составляющая 75%? Это не означает буквально то, что любые 3 из 4 букв текста можно вычеркнуть без потери информации. Более точно это означает, что при оптимальном кодировании текста (при использовании, например, кода Хаффмена, кода Фано или другого оптимального кода его можно сжать до четверти длины без потери информации.
      Сделаем замечание  о другом возможном подходе к  определению величины НL для литературных текстов. А. Н. Колмогоров, не согласившись с тем, что теоретико-информационные рассмотрения игнорируют вопрос о смысловом содержании литературных текстов, предложил так называемый комбинаторный подход. Суть такого подхода к определению энтропии текста состоит в следующем. Шенноновскую энтропию НL , приходящуюся на букву текста, можно определить тем условием, что для n-буквенного алфавита число текстов длины L, удовлетворяющих заданным статистическим ограничениям, равно (при достаточно больших L) не 
 

как это  было бы, если мы имели бы право брать  любые наборы из L букв, а всего лишь
         

     По  сути, это и есть асимптотика числа осмысленных открытьтх текстов длины L для данного языка. Исходя из этого, можно определить энтропию НL языка формулой:
       
 

не зависящей  ни от каких теоретико-вероятностных  представлений. Величину М(L) можно оценивать  с помощью подсчета числа возможных продолжений литературного текста.
     Абсолютная  норма языка равна максимальному  количеству битов, которое может  быть передано каждым символом при  условии, что все последовательности символов равновероятны. Если в языке L символов, то абсолютная норма равна:
     RL = log2 L
     Это максимум энтропии отдельных символов. Для английского языка с 26 буквами  абсолютная норма равна log2 26, или около 4.7 бит/буква.
     Шеннон  определил точную математическую модель понятия безопасности криптосистемы. Смысл работы криптоаналитика состоит в определении ключа К, открытого текста P или и того, и другого. Однако, его может устроить и некоторая вероятностная информация о P: является ли этот открытый текст оцифрованным звуком, немецким текстом, данными электронных таблиц или еще чем-нибудь.
     В реальном криптоанализе у криптоаналитика  есть некоторая вероятностная информация о P еще до начала работы. Он, скорее всего, знает язык открытого текста. Этот язык обладает определенной, связанной  с ним избыточностью. Если это сообщения для Боба, оно, возможно, начинается словами "Дорогой Боб". Определенно, "Дорогой Боб" намного вероятнее, чем "e8T&.g [,m". Целью криптоаналитика является изменение вероятностей, связанных с каждым возможным открытым текстом. В конце концов, из груды возможных открытых текстов будет выбран один конкретный (или, по крайней мере, весьма вероятный).
     Существуют  криптосистемы, достигающие совершенной  безопасности. Такой является криптосистема, в которой шифротекст не дает никакой  информации об открытом тексте (кроме, возможно, его длины). Шеннон теоретически показал, что такое возможно только, если число возможных ключей также велико, как и число возможных сообщений. Другими словами, ключ должен быть не короче самого сообщения и не может использоваться повторно. Это означает, что единственной системой, которая достигает идеальной безопасности, может быть только криптосистема с одноразовым блокнотом.
     За  исключением идеально безопасных систем, шифротекст неизбежно дает определенную информацию о соответствующем шифротексте. Хороший криптографический алгоритм сохраняет минимум этой информации, хороший криптоаналитик пользуется этой информацией для определения открытого текста.
     Криптоаналитики используют естественную избыточность языка для уменьшения числа возможных открытых текстов. Чем избыточнее язык, тем легче его криптоанализировать. По этой причине многие криптографические реализации перед шифрованием используют программы сжатия для уменьшения размера текста. Сжатие уменьшает избыточность сообщения вместе с объемом работы, необходимым для его шифрования и дешифрирования.
     Энтропия  криптосистемы является мерой размера  пространства ключей, K. Она приблизительно равна логарифму числа ключей по основанию 2:
     H(К) = log2 K
     Энтропия  криптосистемы с 64-битовым ключом равна 64 битам, энтропия криптосистемы с 56-битовым ключом равна 56 битам. В общем случае чем больше энтропия, тем тяжелее взломать криптосистему. 

     Расстояние  единственности. Попытки определения  истинного ключа шифра по данной криптограмме путем ее расшифрования на всех возможных ключах могут привести к тому, что критерий на открытый текст примет несколько претендентов за открытый текст. Это объясняется не только недостатками критерия. При небольших длинах криптограмм результат ее расшифрования может дать несколько осмысленных текстов. Например, криптограмму WNAJW, полученную при использовании сдвигового шифра для английского языка, порождают два открытых текста RIVER и ARENA, отвечающик ключам F(=5) и W(=22). При этом один из ключей является истинным, а другой -ложным. Аналогичная ситуация может иметь место для любого другого шифра.
     Для сообщения длиной n число различных  ключей, которые расшифруют шифротекст сообщения в какой-то осмысленный  открытый текст на языке оригинального  открытого текста (например, английском), определяется следующей формулой:
     2H(K)- nR – 1
     Шеннон  определил расстояние уникальности, U, называемое также точкой уникальности, как такое приближенное количество шифротекста, для которого сумма  реальной информации (энтропия) в соответствующем открытом тексте плюс энтропия ключа шифрования равняется числу используемых битов шифротекста.
     Затем он показал, что имеет смысл считать, что шифротексты, которые длиннее  расстояния уникальности, можно расшифровать только одним осмысленным способом. Шифротексты, которые заметно короче расстояния уникальности, скорее всего, можно расшифровать несколькими способами, каждый из которых может быть правилен, и таким образом обеспечить безопасность, поставив противника перед выбором правильного открытого текста.
     Для большинства симметричных криптосистем расстояние уникальности определяется как энтропия криптосистемы деленная на избыточность языка.
     U = H(К)/R
     Расстояние  уникальности является не точным, а  вероятностным значением. Оно позволяет  оценить минимальное количество шифротекста, при вскрытии которого грубой силой имеется, вероятно, только один разумный способ дешифрирования. Обычно чем больше расстояние уникальности, тем лучше криптосистема. Для DES с 56-битовым ключом и англоязычного сообщения, записанного символами ASCII, расстояние уникальности приблизительно равно 8.2 символа ASCII или 66 бит. В таблице 2 приведены расстояния уникальности для различных длин ключа.
     Расстояние  уникальности измеряет не количество криптотекста, нужного для криптоанализа, а количество криптотекста, необходимое  для единственности результата криптоанализа. Криптосистема может быть вычислительно  неуязвима, даже если теоретически ее возможно взломать, используя малое количество шифротекста.
     Расстояние  уникальности пропорционально избыточности. Если избыточность стремится к нулю, даже тривиальный шифр может не поддаться  вскрытию с использованием только шифротекста. В таблице 2 приведены расстояния уникальности текстов с различной длиной ключа
Таблица 2 - Расстояния уникальности текста ASCII, зашифрованного алгоритмами с различной  длиной ключа
Длина ключа (в битах) Расстояние  уникальности (в символах)
40 5.9
56 8.2
64 9.4
80 11.8
128 18.8
256 37.6
 
     Шеннон  определил криптосистему с бесконечным  расстоянием уникальности, как обладающую идеальной тайной. Обратите внимание, что идеальная криптосистема  не обязательно является совершенной, хотя совершенная криптосистема  обязательно будет и идеальной. Если криптосистема обладает идеальной тайной, то даже при успешном криптоанализе останется некоторая неопределенность, является ли восстановленный открытый текст реальным открытым текстом.
     Хотя  эти понятия имеют большое  теоретическое значение, реальный криптоанализ использует их достаточно редко. Расстояние уникальности гарантирует ненадежность системы, если оно слишком мало, но его высокое значение не гарантирует безопасности. Несколько практических алгоритмов абсолютно не поддаются анализу, поведение параметров теории информации могло бы способствовать взлому некоторых шифрованных сообщений. Однако, подобные соображения теории информации иногда полезны, например, для определения в конкретном алгоритме рекомендуемого интервала изменения ключей. Криптоаналитики также используют ряд тестов не базе статистики и теории информации, чтобы выбирать наиболее перспективные направления анализа. К сожалению, большинство литературы по применению теории информации в криптоанализе остается секретной, включая основополагающую работу Алана Тьюринга (Alan Turing), написанную в 1940. 
2. Совершенная секретность
 

     На основе вероятностных характеристик Клод Шеннон предложил определение совершенной секретности сообщений.
     Предположим, что имеется конечное число возможных сообщений M1,…,Mn с априорными вероятностями P(M1),…,P(Mn) и что эти сообщения преобразуются в возможные криптограммы E1,…,Em, так что E = TiM. После того как шифровальщик противника перехватил некоторую криптограмму E, он может вычислить, по крайней мере в принципе, апостериорные вероятности различных сообщений PE(M). Естественно определить совершенную секретность с помощью следующего условия: для всех E апостериорные вероятности равны априорным вероятностям, независимо от величины этих последних. В этом случае перехват сообщения не дает шифровальщику противника никакой информации. Теперь он не может корректировать никакие свои действия в зависимости от информации, содержащейся в криптограмме, так как все вероятности, относящиеся к содержанию криптограммы, не изменяются.
С другой стороны, если это условие равенства  вероятностей не выполнено, то имеются  такие случаи, в которых для  определенного ключа и определенных выборов сообщений апостериорные  вероятности противника отличаются от априорных. А это в свою очередь может повлиять на выбор противником своих действий и, таким образом, совершенной секретности не получится. Следовательно, приведенное определение неизбежным образом следует из нашего интуитивного представления о совершенной секретности. Необходимое и достаточное условие для того, чтобы система была совершенно секретной, можно записать в следующем виде. По теореме Байеса
, где
     P(M) – априорная вероятность сообщения  M;
     PM(E) – условная вероятность криптограммы E при условии, что выбрано сообщение M, т.е. сумма вероятностей всех тех ключей, которые переводят сообщение M в криптограмму E;
     P(E) – вероятность получения криптограммы E;
     PE(M) – апостериорная вероятность сообщения M при условии, что перехвачена криптограмма E.
     Для совершенной секретности системы  величины PE(M) и P(M) должны быть равны для всех E и M. Следовательно, должно быть выполнено одно из равенств: или P(M) = 0 [это решение должно быть отброшено, так как требуется, чтобы равенство осуществлялось при любых значениях P(M)], или же
     PM(E) = P(E)
     для любых M и E. Наоборот, если PM(E) = P(E), то
     PE(M) = P(M),
     и система совершенно секретна. Таким  образом, можно сформулировать следующую  теорему: Необходимое и достаточное  условие для совершенной секретности состоит в том, что PM(E) = P(E) для всех M и E, т.е. PM(E) не должно зависеть от M.
     Другими словами, полная вероятность всех ключей, переводящих сообщение Mi в данную криптограмму E, равна полной вероятности всех ключей, переводящих сообщение Mj в ту же самую криптограмму E для всех Mi, Mj и E. Далее, должно существовать по крайней мере столько же криптограмм E, сколько и сообщений M, так как для фиксированного i отображение Ti дает взаимно-однозначное соответствие между всеми M и некоторыми из E. Для совершенно секретных систем для каждого из этих E и любого M PM(E) = P(E) > 0. Следовательно, найдется по крайней мере один ключ, отображающий данное M в любое из E. Но все ключи, отображающие фиксированное M в различные E, должны быть различными, и поэтому число различных ключей не меньше числа сообщений M.
     Как показывает следующий пример, можно  получить совершенную секретность, когда число сообщений точно  равно числу ключей. Пусть Mi занумерованы числами от 1 до n, так же как и Ei, и пусть используются n ключей. Тогда
     TiMj = Es,
     где s = i + j (mod n). В этом случае оказывается справедливым равенство PE(M) = 1/n = P(E) и система является совершенно секретной. Один пример такой системы показан на рисунке 1.
     где
     s = i + j - 1(mod 5)
     
     Рисунок 1. Совершенная система
     Совершенно  секретные системы, в которых  число криптограмм равно числу  сообщений, а также числу ключей, характеризуются следующими двумя  свойствами:
    каждое M связывается с каждым E только одной линией;
    все ключи равновероятны.
     Таким образом, матричное представление такой системы является «латинским квадратом». В «Математической теории связи» показано, что количественно информацию удобно измерять с помощью энтропии. Если имеется некоторая совокупность возможностей с вероятностями p1,…,pn, то энтропия дается выражением
      .
     Секретная система включает в себя два статистических выбора: выбор сообщения и выбор  ключа. Можно измерять количество информации, создаваемой при выборе сообщения, через H(M)
      ,
     где суммирование выполняется по всем возможным  сообщениям. Аналогично, неопределенность, связанная с выбором ключа, дается выражением
      .
     В совершенно секретных системах описанного выше типа количество информации в сообщении равно самое большее log n (эта величина достигается для равновероятных сообщений). Эта информация может быть скрыта полностью лишь тогда, когда неопределенность ключа не меньше log n. Это является первым примером общего принципа, который будет часто встречаться ниже: существует предел, которого нельзя превзойти при заданной неопределенности ключа – количество неопределенности, которое может быть введено в решение, не может быть больше, чем неопределенность ключа.
     Положение несколько усложняется, если число сообщений бесконечно. Предположим, например, что сообщения порождаются соответствующим марковским процессом в виде бесконечной последовательности букв. Ясно, что никакой конечный ключ не даст совершенной секретности. Предположим тогда, что источник ключа порождает ключ аналогичным образом, т.е. как бесконечную последовательность символов.
     Предположим далее, что для шифрования и дешифрирования сообщения длины L требуется только определенная длина ключа LK. Пусть логарифм числа букв в алфавите сообщений будет RM, а такой же логарифм для ключа – RK. Тогда из рассуждений для конечного случая, очевидно, следует, что для совершенной секретности требуется, чтобы выполнялось неравенство
     RMLM <= RKLK.
     Такой вид совершенной секретности  реализован в системе Вернама. Эти выводы делаются в предположении, что априорные вероятности сообщений неизвестны или произвольны. В этом случае ключ, требуемый для того, чтобы имела место совершенная секретность, зависит от полного числа возможных сообщений. Можно было бы ожидать, что если в пространстве сообщений имеются фиксированные известные статистические связи, так что имеется определенная скорость создания сообщений R в смысле, принятом в «Математической теории связи», то необходимый объем ключа можно было бы снизить в среднем в R/RM раз, и это действительно верно. В самом деле, сообщение можно пропустить через преобразователь, который устраняет избыточность и уменьшает среднюю длину сообщения как раз во столько раз. Затем к результату можно применить шифр Вернама. Очевидно, что объем ключа, используемого на букву сообщения, статистически уменьшается на множитель R/RM, и в этом случае источник ключа и источник сообщений в точности согласован – один бит ключа полностью скрывает один бит информации сообщения.
     С помощью методов, использованных в «Математической теории связи», легко также показать, что это лучшее, чего можно достигнуть. Совершенно секретные системы могут применяться и на практике, их можно использовать или в том случае, когда полной секретности придается чрезвычайно большое значение, например, для кодирования документов высших военных инстанций управления, или же в случаях, где число возможных сообщений мало. Так, беря крайний пример, когда имеются в виду только два сообщения – «да» или «нет», – можно, конечно, использовать совершенно секретную систему со следующей таблицей (3) отображений:
     Таблица 3 – Отображения совершенно секретной  системы с двумя возможными сообщениями
М             К А В
да 0 1
нет 1 0
 
Недостатком совершенно секретных систем для  случая корреспонденции большого объема является, конечно, то, что требуется посылать эквивалентный объем ключа. 
3. Выводы
 

     Приведенные положения справедливы для того случая, когда криптоаналитик противника знает язык открытого сообщения. Ситуация, когда противник не знает языка усложняет точное истолкование сообщения. Если только в распоряжении противника есть неограниченные возможности, время и некоторое колличество перехваченных сообщений с приблизительными предположениями о их содержании, то и открытый текст, и криптограмма теоретически могут быть расшифрованы.
     Основываясь на этом можно предложить создание криптографической системы, использующей в качестве шифрования – расшифрования  перевод сообщения на особый язык. При этом надо определить словарь  – совокупность слов, используемых в возможных сообщениях конкретной предметной области для передачи информации в обычной обстановке секретности. Под переводом слов подразумевается оптимальное кодирование для приближения распределения вероятностей символов и r-грамм в сообщениях к равномерному. Можно исключить необходимость склонения, установив правила расположения слов в предложениях, применить дополнительно наиболее подходящий для этого алгоритм шифрования. В защиту этого предложения можно привести некоторые доводы.
и т.д.................


Перейти к полному тексту работы


Скачать работу с онлайн повышением уникальности до 90% по antiplagiat.ru, etxt.ru или advego.ru


Смотреть полный текст работы бесплатно


Смотреть похожие работы


* Примечание. Уникальность работы указана на дату публикации, текущее значение может отличаться от указанного.