На бирже курсовых и дипломных проектов можно найти образцы готовых работ или получить помощь в написании уникальных курсовых работ, дипломов, лабораторных работ, контрольных работ, диссертаций, рефератов. Так же вы мажете самостоятельно повысить уникальность своей работы для прохождения проверки на плагиат всего за несколько минут.

ЛИЧНЫЙ КАБИНЕТ 

 

Здравствуйте гость!

 

Логин:

Пароль:

 

Запомнить

 

 

Забыли пароль? Регистрация

Повышение уникальности

Предлагаем нашим посетителям воспользоваться бесплатным программным обеспечением «StudentHelp», которое позволит вам всего за несколько минут, выполнить повышение уникальности любого файла в формате MS Word. После такого повышения уникальности, ваша работа легко пройдете проверку в системах антиплагиат вуз, antiplagiat.ru, etxt.ru или advego.ru. Программа «StudentHelp» работает по уникальной технологии и при повышении уникальности не вставляет в текст скрытых символов, и даже если препод скопирует текст в блокнот – не увидит ни каких отличий от текста в Word файле.

Результат поиска


Наименование:


реферат Количественные характеристики информаци

Информация:

Тип работы: реферат. Добавлен: 22.06.2012. Сдан: 2011. Страниц: 6. Уникальность по antiplagiat.ru: < 30%

Описание (план):


Информация
1.1. Информация и  данные.
Термин “информация” происходит от латинского informatio, что  означает разъяснение, осведомление, изложение. В широком смысле информация –  это общенаучное понятие, включающее в себя обмен сведениями между  другими людьми, обмен сигналами  между живой и неживой природой, людьми и устройствами.
Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.
Данные могут рассматриваться как признаки или записанные наблюдения, которые по каким-то причинам не используются, а только хранятся.
    В том случае, если появляется возможность использовать эти данные для уменьшения неопределенности о чем-либо, данные превращаются в  информацию.  

1.2. Количественные  характеристики информации.

Рис. 1.2.1 Классификация  мер информации.
Синтаксическая  мера информации.
Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры  кодов представления информации.
Объём данных (VД) понимается в техническом смысле этого слова как информационный объём сообщения или как объём памяти, необходимый для хранения сообщения без каких-либо изменений.
Информационный  объём сообщения измеряется в битах и равен количеству двоичных цифр (“0” и “1”), которыми закодировано сообщение.
В компьютерной практике слово “бит” используется также как единица измерения  объёма памяти. Ячейка памяти размером в 1 бит может находиться в двух состояниях (“включено” и “выключено”) и в неё может быть записана одна двоичная цифра (0 или 1). Понятно, что бит — слишком маленькая единица измерения информации, поэтому пользуются кратными ей величинами. Основной единицей измерения информации является байт. 1 байт равен 8 битам. В ячейку размером в 1 байт можно поместить 8 двоичных цифр, то есть в одном байте можно хранить 256 = 2различных чисел. Для измерения ещё бoльших объёмов информации используются такие величины:
    1 Килобайт =
210 байт = 1024 байт
1 Мегабайт = 210 Килобайт = 1024 Килобайт
1 Гигабайт = 210 Мегабайт = 1024 Мегабайт
1 Терабайт = 210 Гигабайт = 1024 Гигабайт
Пример 1.2.1. Важно иметь представление, сколько информации может вместить килобайт, мегабайт или гигабайт. При двоичном кодировании текста каждая буква, знак препинания, пробел занимают 1 байт. На странице книги среднего формата примерно 50 строк, в каждой строке около 60 символов, таким образом, полностью заполненная страница имеет объём 50 x 60 = 3000 байт ?3 Килобайта. Вся книга среднего формата занимает ? 0,5 Мегабайт. Один номер четырёхстраничной газеты — 150 Килобайт. Если человек говорит по 8 часов в день без перерыва, то за 70 лет он наговорит около 10 Гигабайт информации. Один чёрно-белый кадр (при 32 градациях яркости каждой точки) содержит примерно 300 Кб информации, цветной кадр содержит уже около 1 Мб информации. Телевизионный фильм продолжительностью 1,5 часа с частотой 25 кадров в секунду — 135 Гб.
Количество  информации I на синтаксическом уровне определяется через понятие энтропии системы.
Пусть до получения  информации потребитель имеет некоторые  предварительные (априорные) сведения о системе ?. Мерой его неосведомленности  о системе является функция H(?), которая в то же время служит и мерой неопределенности состояния системы.
После получения  некоторого сообщения ? получатель приобрел некоторую дополнительную информацию I?(?), уменьшившую его априорную неосведомленность так, что неопределенность состояния системы после получения сообщения ? стала H?(?).
Тогда количество информации I?(?) ? системе, полученной в сообщении ?, определится как
I?(?)=H(?)-H?(?).
т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы. Если конечная неопределенность H?(?) ?братится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации I?(?)=H(?)Иными словами, энтропия системы Н(а) может рассматриваться как мера недостающей информации.
Энтропия системы H(?), ?меющая N возможных состояний, согласно формуле Шеннона, равна:
где Pi — вероятность того, что система находится в i-м состоянии. Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны P= , ее энтропия определяется соотношением  .
Пример 1.2.2. Часто информация кодируется числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере. Естественно, что одно и то же количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения
N=mn,
где N — число всевозможных отображаемых состояний; m — основание системы счисления (разнообразие символов, применяемых в алфавите); n —число разрядов (символов) в сообщении. Допустим, что по каналу связи передается n-разрядное сообщение, использующее m различных символов. Так как количество всевозможных кодовых комбинаций будет N=m", то при равновероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет
I=log N=n log m — формула Хартли.
Если  в качестве основания  логарифма принять m, то / = n. В данном случае количество информации (при условии полного априорного незнания абонентом содержания сообщения) будет равно объему данных /=VД , полученных по каналу связи.
Наиболее часто  используются двоичные и десятичные логарифмы. Единицами измерения  в этих случаях будут соответственно бит и дит.
Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.
.

С увеличением Y уменьшаются объемы работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.
Семантическая мера информации
Для измерения  смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная  мера, которая связывает семантические  свойства информации со способностью пользователя принимать поступившее  сообщение. Для этого используется понятие тезаурус пользователя.
Тезаурус — это совокупность сведений, которыми располагает пользователь или система.
В зависимости  от соотношений между смысловым  содержанием информации и тезаурусом пользователя Sизменяется количество семантической информации Icвоспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рис. 1.2.2. Рассмотрим два предельных случая, когда количество семантической информации Iравно 0:
• при Sp>0 пользователь не воспринимает, не понимает поступающую информацию;
• при Sp>пользователь все знает, и поступающая информация ему не нужна.

Рис. 1.2.2. Зависимость количества семантической информации, воспринимаемой потребителем, от его тезауруса.
Максимальное  количество семантической информации Iпотребитель приобретает при согласовании ее смыслового содержания со своим тезаурусом S(S= Sp opt), когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения. Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного. Относительной мерой количества семантической информации может служить коэффициент содержательности С, который определяется как отношение количества семантической информации к ее объему:

Прагматическая  мера информации
Эта мера определяет полезность информации (ценность) для  достижения пользователем поставленной цепи. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе.
Ценность информации целесообразно измерять в тех  же самых единицах (или близких  к ним), в которых измеряется целевая  функция.
Для сопоставления  введённые меры информации представим в таблице
Мера  информации Единицы измерения Примеры (для  компьютерной области)
Синтаксическая: шенноновский  подход
компьютерный  подход
Степень уменьшения неопределенности  
Единицы представления  информации
Вероятность события    
 
Бит, байт. Кбайт  и та
Семантическая Тезаурус  
Экономические показатели
Пакет прикладных программ, персональный компьютер, компьютерные сети и т.д. Рентабельность, производительность, коэффициент амортизации  и тд.
Прагматическая Ценность использования Емкость памяти, производительность компьютера, скорость передачи данных и т.д. Денежное выражение
Время обработки  информации и принятия решений
   
1.3. Качественные характеристики  информации.
Возможность и  эффективность использования информации обусловливаются такими основными  ее потребительскими показателями качествакак репрезентативность, содержательность, достаточность, доступность, актуальность, своевременность, точность, достоверность, устойчивость.
Репрезентативность информации связана с правильностью ее отбора и формирования в целях адекватного отражения свойств объекта. Важнейшее значение здесь имеют:
• правильность концепции, на базе которой сформулировано исходное понятие;
• обоснованность отбора существенных признаков и  связей отображаемого явления.
Нарушение репрезентативности информации приводит нередко к существенным ее погрешностям.
Содержательность информации отражает семантическую емкость, равную отношению количества семантической информации в сообщении к объему обрабатываемых данных, т.е. 
С увеличением содержательности информации растет семантическая пропускная способность информационной системы, так как для получения одних и тех же сведений требуется преобразовать меньший объем данных.
Наряду с коэффициентом  содержательности С, отражающим семантический  аспект, можно использовать и коэффициент  информативности, характеризующийся  отношением количества синтаксической информации (по Шеннону) к объему данных  .
Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав (набор показателей). Понятие полноты информации связано с ее смысловым содержанием (семантикой) и прагматикой. Как неполная, т.е. недостаточная для принятия правильного решения, так и избыточная информация снижает эффективность принимаемых пользователем решений.
Доступность информации восприятию пользователя обеспечивается выполнением соответствующих процедур ее получения и преобразования. Например, в информационной системе информация преобразовывается к доступной и удобной для восприятия пользователя форме. Это достигается, в частности, и путем согласования ее семантической формы с тезаурусом пользователя.
Актуальность информации определяется степенью сохранения ценности информации для управления в момент ее использования и зависит от динамики изменения ее характеристик и от интервала времени, прошедшего с момента возникновения данной информации.
Своевременность информации означает ее поступление не позже заранее назначенного момента времени, согласованного с временем решения поставленной задачи.
Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления и т.п.
Достоверность информации определяется ее свойством отражать реально существующие объекты с необходимой точностью. Измеряется достоверность информации доверительной вероятностью необходимой точности, т. е. вероятностью того, что отображаемое информацией значение параметра отличается от истинного значения этого параметра в пределах необходимой точности.
Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности. Устойчивость информации, как и репрезентативность, обусловлена выбранной методикой ее отбора и формирования.
2. Технологии работы  с информацией.
2.1. Технология кодирования  информации
Кодирование информации — представление сведений в стандартной форме. Одни и те же сведения могут быть представлены в нескольких разных формах, и наоборот, разные сведения можно представить в похожей форме. Например, можно использовать словесное описание новой марки автомобиля, а можно представить его вид в нескольких детальных фотографиях. Другой пример — медицинские справки одной формы имеют одинаковый внешний вид, но описывают разные болезни, так как выданы разным людям.
С появлением компьютеров  возникла необходимость кодирования  всех видов информации, с которой  имеет дело и отдельный человек  и всё человечество в целом. Но решать задачу кодирования информации человечество начало задолго до появления  компьютеров: грандиозные достижения человечества — письменность и арифметика — не что иное, как системы  кодирования речи и числовой информации.
Кодирование чисел
Чтобы использовать числа, нужно их как-то называть и  записывать, нужна система нумерации. Различные системы счёта и  записи чисел тысячелетиями сосуществовали и соревновались между собой, но к концу "докомпьютерной эпохи" особую роль при счёте стало играть число "десять", а самой популярной системой кодирования оказалась позиционная десятичная система. В этой системе значение цифры в числе зависит от её места (позиции) внутри числа. Десятичная система счисления пришла из Индии (не позднее VI века нашей эры). Алфавит этой системы: {0, 1, 2, 3, 4, 5, 6, 7, 8, 9} — всего 10 цифр, таким образом основание системы счисления — 10. Число записывается как комбинация единиц, десятков, сотен, тысяч и так далее. Пример: 1998=8*10+ 9*10+ 9*10+ 1*103.
Заметим, что  выбор числа 10 в качестве основания  системы счисления объясняется  традицией, а не какими-то замечательными свойствами числа 10. Вообще, представление числа N в р-ричной системе счисления, это:
N=an*pn+an-l*pn-l+...+al*pl+ao, где а0, аi{0, 1, 2, ..., аi}.
В Вавилоне, например, использовалась 60-ричная система счисления, алфавит содержал цифры от 1 до 59, числа 0 не было, таблицы умножения  были очень громоздкими, поэтому  очень скоро она была забыта, но отголоски её былой распространённости можно наблюдать и сейчас —  деление часа на 60 минут, деление  круга на 360 градусов.
Двоичная  система счисления
Двоичная система  счисления была придумана математиками и философами ещё до появления  компьютеров (XVII — XIX вв.). Выдающийся математик  Лейбниц говорил: "Вычисление с  помощью двоек... является для науки  основным и порождает новые открытия... При сведении чисел к простейшим началам, каковы 0 и 1, везде появляется чудесный порядок". Позже двоичная система была забыта, и только в 1936 — 1938 годах американский инженер  и математик Клод Шеннон нашёл замечательные применения двоичной системы при конструировании электронных схем. Рассмотрим пример представления числа в двоичной системе счисления:
Пример 2.1.1. Переведём число 2000 в двоичную систему.
1. Делим 2000 на основание  новой системы  счисления — 2:
2000:2=1000(0 - остаток),
1000:2=500(0),
500:2=250(0),
250:2=125(0),
125:2=62(1),
62:2=31(0),
31:2=15(1),
15:2=7(1),
7:2=3(1),
3:2=1(1)
2. Собираем последнее  частное от деления  (всегда равно  1) и остатки от  деления и записываем  их по порядку,  начиная снизу  :
200010==111110100002
Для проверки переведём  полученное число  в десятичную систему  счисления, для этого:
1. Выделим двоичные  разряды числа,  то есть, степени  числа 2, начиная  с 0-й:
1 1 1 1 1 0 1 0 0 0 0
210 29 28 27 26 25 24 23 22 2'
2. Запишем сумму  произведений 0 и  1 на соответствующую  степень числа  2 (см. представление  числа в р-ричной  системе счисления):
0*20+0*21+0*22+0*23+l*24+0*25+l*26+l*27+l*28+l*29+l*210= 16+64+128+256+512+1024=2000
Существуют системы  счисления, родственные двоичной. При  работе с компьютерами иногда приходится иметь дело с двоичными числами, так как двоичные числа заложены в конструкцию компьютера. Двоичная система удобна для компьютера, но неудобна для человека — слишком  длинные числа неудобно записывать и запоминать. На помощь приходят системы  счисления, родственные двоичной —  восьмеричная и шестнадцатеричная.
Например, в шестнадцатеричной  системе для записи чисел предназначены 10 арабских цифр и буквы латинского алфавита {А, В, С, D, Е, F}. Чтобы записать число в этой системе счисления, удобно воспользоваться двоичным представлением числа. Возьмём для примера то же число — 2000 или 11111010000 в двоичной системе. Разобьём его на четвёрки знаков, двигаясь справа налево, в последней четвёрке слева припишем незначащий 0, чтобы количество знаков в триадах было по четыре: 0111 1101 0000. Начнём перевод — числу 0111 в двоичной системе соответствует число 7 в десятичной (710=1*20+1*21+1*22), в шестнадцатеричной системе счисления цифра 7 есть; числу 1101 в двоичной системе соответствует число 13 в десятичной (13=1*2+ 0*2+ 1*2+ 1*23), в шестнадцатеричной системе этому числу соответствует цифра D, и, наконец, число 0000 — в любой системе счисления 0. Запишем теперь результат:
11111010000= 7D016.
Кодирование координат
Закодировать  можно не только числа, но и другую информацию. Например, информацию о  том, где находится некоторый  объект. Величины, определяющие положение  объекта в пространстве, называются координатами. В любой системе координат есть начало отсчёта, единица измерения, масштаб, направление отсчёта, или оси координат. Примеры систем координат — декартовы координаты, полярная система координат, шахматы, географические координаты.
Кодирование музыки
Как всякий звук, музыка является не чем иным, как  звуковыми колебаниями, зарегистрировав  которые достаточно точно, можно  этот звук безошибочно воспроизвести. Нужно только непрерывный сигнал, которым является звук, преобразовать  в последовательность нулей и  единиц. С помощью микрофона звук можно превратить в электрические  колебания, измерить амплитуду колебаний  через равные промежутки времени (несколько  десятков тысяч раз в секунду). Каждое измерение записывается в  двоичном коде. Этот процесс называется дискретизацией. Устройство для выполнения дискретизации — АЦП (аналогово-цифровой преобразователь). Воспроизведение такого звука ведётся при помощи ЦАП (цифро-аналогового преобразователя). Полученный ступенчатый сигнал сглаживается и преобразуется в звук при помощи усилителя и динамика. На качество воспроизведения влияют частота дискретизации и разрешение (размер ячейки, отведённой под запись значения амплитуды). Например, при записи музыки на компакт-диски используются 16-разрядные значения и частота дискретизации 44 032 Гц. Понятно, что музыкальное произведение содержит в себе множество разных звуков, поэтому для того, чтобы хранить такой объём информации, нужно много места, такую запись трудно обрабатывать, так как в музыке ещё очень много оттенков. По этим причинам удобнее использовать для кодирования музыки нотную запись — своего рода алгоритм музыканту. В 1983 году ведущие производители электронных музыкальных инструментов и композиторов договорились о системе команд универсального синтезатора. Это соглашение — стандарт MIDI (Musical Instrument Digital Interface). При таком кодировании запись компактна, легко меняется инструмент исполнителя, тональность звучания, одна и та же запись воспроизводится как на синтезаторе, так и на компьютере.
Кодирование текста
Текст закодировать довольно просто. Для этого достаточно как-нибудь перенумеровать все буквы, цифры, знаки препинания и другие используемые при письме символы. Для  хранения одного символа чаще всего  используется восьмиразрядная ячейка — один байт, иногда два байта (иероглифы, например). В байт можно записать 256 различных чисел, значит, это позволит закодировать 256 различных символов. Соответствие символов и их кодов  задаётся в специальной таблице. Коды записываются в шестнадцатеричной  системе, так как для записи числа  из восьми разрядов нужно всего две  шестнадцатеричных цифры.
    Кодирование изображений
Цифровые персональные компьютеры хорошо работают с числами, но не умеют обрабатывать непрерывные  величины. Но человеческий глаз можно  обмануть: изображение, составленное из большого числа отдельных мелких деталей, воспринимается как непрерывное. Если разбить картинку вертикальными и горизонтальными линиями на маленькие мозаичные квадратики, получим так называемый растр — двумерный массив квадратиков. Сами квадратики — элементы растра или пиксели (picture's element) — элементы картинки. Цвет каждого пикселя кодируется числом, тогда, задав по порядку номера цветов (слева направо или сверху вниз), можно описать любую картинку. Часть информации неизбежно потеряется, но чем больше растр (мельче пиксели), тем точнее воспроизводится картинка.
Для описания черно-белых  изображений используются оттенки  серого цвета, то есть при кодировании  учитывается только яркость. Она  описывается одним числом, поэтому  для кодирования одного пикселя  требуется от 1 до 8 бит: чёрный цвет — 0, белый цвет — N=2k-l, где k — число разрядов, которые отводятся для кодирования цвета. Например, при длине ячейки в 8 бит это 256-1=255. Человеческий глаз в состоянии различить от 100 до 200 оттенков серого цвета, поэтому восьми разрядов вполне хватает.
Цветные изображения  воспринимаются нами как сумма трёх основных цветов — красного, зелёного и синего. Например, сиреневый = красный + синий; жёлтый = красный + зелёный; оранжевый = красный + зелёный, но в другой пропорции. Поэтому достаточно закодировать цвет тремя числами — яркостью его  красной, зелёной и синей составляющих. Этот способ кодирования называется RGB (Red—Green—Blue). Его используют в устройствах, способных излучать свет (мониторы). При рисовании на бумаге действуют другие правила, так как краски сами по себе не испускают свет, а только поглощают некоторые цвета спектра. Если смешать красную и зелёную краски, то получится коричневый, а не жёлтый цвет. Поэтому при печати цветных изображений используют метод CMY (Cyan—Magenta—Yellow) — голубой, сиреневый, жёлтый цвета. При таком кодировании красный = сиреневый + жёлтый; зелёный = голубой + жёлтый.  

Кодирование фильмов
Фильм представляет собой последовательность быстро сменяющих  друг друга кадров, на которых изображены последовательные фазы движения. Поскольку  известны принципы кодирования отдельных  кадров, то закодировать фильм как  последовательность таких кадров ничего не стоит. Звук записывают независимо от изображения. При демонстрации фильма важно только добиться синхронизации  звука и изображения (в кино для  этого используют хлопушку — по щелчку хлопушки совмещаются звук и  изображение).
Закодированный  фильм несёт в себе информацию о размере кадра в пикселях и количество используемых цветов; частоте и разрешении для звука; способе записи звука (покадровый или непрерывный для всего фильма). После этого следует последовательность закодированных картинок и звуковых фрагментов.  

2.2. Технология упаковки  информации
Упаковка нужна для сокращения длины сообщения и уменьшения времени для его передачи по каналам связи. Все используемые методы упаковки информации можно разделить на два класса: упаковка без потери информации и упаковка с потерей информации.
Упаковка  без потери информации — исходное сообщение можно точно восстановить по упакованному. Первый способ такой упаковки представлен в 1952 году Хаффманом, он основан на том, что в обычном тексте частота появления разных символов различна. При стандартном кодировании “I символ = 1 байт” кодировка достаточно проста, но перед длительным хранением или при передаче по каналам связи можно использовать более сложную кодировку. По методу Хаффмана часто встречающиеся символы кодируются короткими последовательностями битов (то есть меньше 8), а редко встречающиеся — длинными (больше 8). В общей сложности, при такой кодировке в среднем требуется меньше 8 бит на символ.
Пример 2.2.1.
Пусть в тексте из 1000 символов 50% пробелов, закодируем текст по такому правилу:
если  встретился пробел —  допишем в конец  последовательности О, если не пробел —  допишем 1, за ней  двоичный код этого  символа.
Таким образом, для пробела  нужен 1 бит, для остальных  символов 8 + 1 = 9 бит. При обычной кодировке  на хранение текста нужно 1000 * 8 = 8000 бит, при кодировке  методом Хаффмана — 500+500х9= 5000 бит.
Второй способ — учёт повторений. Он состоит в  том, что в сообщениях часто встречаются  несколько подряд идущих одинаковых байтов, а некоторые последовательности байтов повторяются многократно. При  упаковке такие последовательности можно заменить на специальные команды  “повторить данный байт N раз” или  “взять часть текста длиной К байт, которая уже встречалась М  байтов назад”. Для упаковки текстов  используется как раз такой способ упаковки, а для упаковки изображений  — первый способ.
Упаковка  с потерей информации — используется для упаковки графических изображений. Этот метод основан на особенности человеческого восприятия изображений. Для человеческого глаза яркость более существенна, чем информация о цветовом фоне или насыщенности точки. Поэтому при упаковке можно выбросить данные о цвете каждой второй точки изображения (сохранив только её яркость), а при распаковке брать вместо выброшенного цвет соседней точки. Распакованная картинка будет отличаться от исходной, но отличие будет практически незаметно. За высокое качество упаковки приходиться платить большими затратами времени на распаковку. Алгоритмы, дающие очень хорошее качество упаковки, могут оказаться неприменимыми из-за слишком большого времени, требуемого на распаковку. Например, если время распаковки одного кадра фильма равно одной секунде, то такой фильм придётся смотреть только после предварительной распаковки.
и т.д.................


Перейти к полному тексту работы


Скачать работу с онлайн повышением уникальности до 90% по antiplagiat.ru, etxt.ru или advego.ru


Смотреть полный текст работы бесплатно


Смотреть похожие работы


* Примечание. Уникальность работы указана на дату публикации, текущее значение может отличаться от указанного.