На бирже курсовых и дипломных проектов можно найти образцы готовых работ или получить помощь в написании уникальных курсовых работ, дипломов, лабораторных работ, контрольных работ, диссертаций, рефератов. Так же вы мажете самостоятельно повысить уникальность своей работы для прохождения проверки на плагиат всего за несколько минут.

ЛИЧНЫЙ КАБИНЕТ 

 

Здравствуйте гость!

 

Логин:

Пароль:

 

Запомнить

 

 

Забыли пароль? Регистрация

Повышение уникальности

Предлагаем нашим посетителям воспользоваться бесплатным программным обеспечением «StudentHelp», которое позволит вам всего за несколько минут, выполнить повышение уникальности любого файла в формате MS Word. После такого повышения уникальности, ваша работа легко пройдете проверку в системах антиплагиат вуз, antiplagiat.ru, etxt.ru или advego.ru. Программа «StudentHelp» работает по уникальной технологии и при повышении уникальности не вставляет в текст скрытых символов, и даже если препод скопирует текст в блокнот – не увидит ни каких отличий от текста в Word файле.

Работа № 96587


Наименование:


Курсовик НЕЙРОННАЯ СЕТЬ, РАСПОЗНАЮЩАЯ БУКВУ ДРЕВНЕРУССКОГО АЛФАВИТА «Л»

Информация:

Тип работы: Курсовик. Добавлен: 29.4.2016. Сдан: 2012. Страниц: 109. Уникальность по antiplagiat.ru: < 30%

Описание (план):


СОДЕРЖАНИЕ

ВВЕДЕНИЕ 4
ТЕОРЕТИЧЕСКАЯ ЧАСТЬ 7
1.1 Определения 7
1.2 Сложность решения задачи распознавания 8
1.3 Методы распознавания букв 10
1.4 Распознавание слитного рукописного текста 17
ПРАКТИЧЕСКАЯ ЧАСТЬ 27
2.1 Описание рукописных букв 27
2.1 Выделение информативных признаков рукописной буквы «Л» 27
2.1 Деформация буквы 28
2.2 Матрицы смежности для всех деформаций 29
2.3 Создание массива векторов 39
2.4 Обработка массива векторов в Квазаре 42
2.5 Таксономия множества признаков 43
2.6 Образ буквы «Л» 46
2.7 Построение информативных пространств 46
2.8 Задача обучения с учителем 49
2.9 Оценка результатов распознавания 56
2.10 Построение нейронной сети 59
2.11 Инвариант буквы «Л» 60
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ 62
ПРИЛОЖЕНИЕ А 63


ВВЕДЕНИЕ
Актуальность задачи автоматического чтения рукописных текстов связана с необходимостью включения в современные базы данных архивных документов, существующих только в «бумажном» варианте. Также актуальность программы обусловлена популярностью на рынке программных продуктов подобного типа (для распознавания образов) и их широкого применения в КПК, смартфонах, ноутбуках, т.д. Программное обеспечение для распознавания образов разрабатывается многими компаниями и является одним из инновационных продуктов на современном рынке.
Цель работы: освоение технологии анализа изображений, нейронных сетей и распознавания образов.
Задачи работы: изучить теорию Гренандера, алгоритмы распознавания изображений, описать рукописные буквы, обработать их в Квазаре, проанализировать полученные данные и построить образ буквы. Найти минимальное существенное информативное пространство, построить нейронные сети, распознающие заданную букву, и их оптимизировать.

План работы (оценка этапов):
1. Согласовать тему курсовой работы и отметить в журнале курсовых работ;
2. Получить базу древнерусских рукописных букв;
3. Построить стандартную модель данных для задачи распознавания буквы «Л» (образ 1) от всех других букв (образ 2);
4. Поиск информативных пространств. Полный листинг и анализ вставить в курсовую работу;
5. Задача ДА. Построить нейронные сети и выбрать наилучшую из них. Полный листинг и анализ вставить в курсовую работу. Презентация. Оценка УДОВЛЕТВОРИТЕЛЬНО;
6. Поиск и построение оптимальной нейронной сети, распознающей данную букву, с качеством более 0,75. Презентация. Оценка ХОРОШО;
7. Обработка файла описания букв в Квазаре. Таксономия признаков (указать только вектора данной буквы).
8. Таксономия признаков. Построить Образ (таксон) буквы. Коэффициент корреляции r0=0.9. Листинг выслать potaninni@list.ru ;
9. Построить по образу инвариант буквы. Презентация. Оценка ОТЛИЧНО;
10. Перенести каждый экземпляр буквы из алфавита в excel;
11. Выделить крайние и существенные точки буквы. Используя лексикографическое упорядочение, построить (вначале изменяется Y потом X) граф буквы. Результаты выслать potaninni@list.ru ;
12. Деформация буквы. Выделить структурные элементы связей (пример линия, дуга);
13. Используя таблицу кодировки (таблица 1), построить матрицы смежности для всех деформаций;
Таблица 1 - Правила построения матриц смежности

14. Найти минимальное и максимальное (по количеству вершин) описание буквы;
15. Построение инвариантов простого графа. Расширить все матрицы смежности до максимального 10x10 размера (добавить нулевые строки и столбцы);
16. Развернуть матрицу по строкам - получим N- вектор;
17. Для каждого N- вектора построить группу структурных преобразований, заменяя в векторе структурный элемент на другие (прямую на дуги);
18. Создать массив N-векторов для обработки в Квазаре, выслать potaninni@list.ru ;
19. Перевести массив N-векторов в файл txt по структуре Квазара, выслать potaninni@list.ru ;
Входные данные - согласованы с преподавателем.

Рисунок 1 - Изображение буквы «Л» в XV веке


ТЕОРЕТИЧЕСКАЯ ЧАСТЬ
1.1 Определения
Иску?сственный интелле?кт - наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ. ИИ связан со сходной задачей использования компьютеров для понимания человеческого интеллекта, но не обязательно ограничивается биологически правдоподобными методами.
Теория распознава?ния о?бразов - раздел информатики, развивающий теоретические основы и методы классификации и идентификации предметов, явлений, процессов, сигналов, ситуаций и т. п. объектов, которые характеризуются конечным набором некоторых свойств и признаков.
Деформация буквы - изменения структуры буквы.
Нейронная сеть - (G, нейрон), где G - ориентированный взвешенный граф, который имеет несколько стоков и истоков, вес нейрон.
Нейрон - f(wixi+bi), где wi - вес, xi - вход, bi - смещение, f - нелинейная функция.
Образ - множество всех объектов, сходных друг с другом в каком-либо фиксированном отношении.
Объект - n-мерный вектор - набор n вещественных чисел-параметров, характеризующих объект.
Распознавание объекта - указание номера образа, которому объект относится.

1.2 Сложность решения задачи распознавания
Древние рукописи являются памятником русской культуры, а также источником знаний о процессе формирования современного языка. Помимо сведений о событиях и укладе жизни людей прошлого, содержащихся непосредственно в тексте рукописей, в них также заложена информация о языке прошедших веков, способах письма и использования письменности как средства коммуникации. Поэтому они являются предметом исследований учёных-лингвистов [7].
Сложность решения задачи компьютерного распознавания находится в сильной зависимости от особенностей графического представления текста. В текстах, полученных типографским способом, буквы располагаются в ровных строках, имеют одинаковое начертание в пределах всего документа и, как правило, имеют достаточно четко различимые промежутки между собой. При решении задачи распознавания эта информация позволяет использовать допущения, снижающие сложность разрабатываемых алгоритмов и методов. Эти особенности присущи, хоть и в меньшей степени, рукопечатным текстам. Здесь в игру вступают вариативность начертания символов, а также всевозможные неточности, как, например, неровность строк, пересечение штрихов букв. Возможно также внесение декоративных элементов в начертание букв.
Скорописные тексты представляют собой наиболее сложный для распознавания вид текстовых изображений (рисунок 2). Назначением скорописи является быстрое нанесение текста на бумагу, при этом без внимания оказывается эстетическая сторона оформления документа. Поэтому в скорописных текстах ещё более велика вариативность начертания букв. Они, как правило, связываются соединительными линиями, что приводит к необходимости решения задачи определения границ букв в изображении. Строки не располагаются на ровных горизонталях, могут встречаться помарки и кляксы. Кроме того, процесс получения электронных изображений рукописей обычно включает в себя несколько этапов копирования (фотографирования и сканирования), каждый из которых вносит свою долю помех и дефектов в выходное изображение [7].


Рисунок 2 - Пример изображения древнерусской скорописной страницы

1.3 Методы распознавания букв
Типичная задача автоматического распознавания образов формулируется примерно так: все множество подлежащих обработке изображений некоторым способом разбивается на конечное число классов, называемых образами. Автоматическому устройству, снабженному механизмом восприятия образов, предъявляется изображение. Устройство должно решить, к какому классу оно относится.
Традиционно существует три метода распознавания (или типа классификаторов): шаблонный, признаковый и структурный [2].
Шаблонные методы преобразуют изображение отдельного символа в растровое представление, сравнивают его со всеми шаблонами, имеющимися в базе, и выбирают шаблон с наименьшим количеством точек, отличных от входного изображения (рисунок 3).


Рисунок 3 - Обобщенный алгоритм работы шаблонных методов

У таких систем достаточно высокая точность распознавания дефектных символов (склеенных или разорванных).
Недостаток ? невозможность распознать шрифт, хоть немного отличающийся от заложенного в систему (размером, наклоном или начертанием) [5].
Признаковые методы базируются на том, что изображению ставится в соответствие N-мерный вектор признаков. Распознавание заключается в сравнении его с набором эталонных векторов той же размерности. Задача распознавания, принятия решения о принадлежности образа тому или иному классу, на основании анализа вычисленных признаков, имеет целый ряд строгих математических решений в рамках детерминистического и вероятностного подходов. В системах распознавания символов чаще всего используется классификация, основанная на подсчете евклидова расстояния между вектором признаков распознаваемого символа и векторами признаков эталонного описания. Тип и количество признаков в немалой степени определяют качество распознавания. Формирование вектора производится во время анализа предварительно подготовленного изображения. Данный процесс называют извлечением признаков. Эталон для каждого класса получают путем аналогичной обработки символов обучающей выборки.
Основные достоинства признаковых методов ? простота реализации, хорошая обобщающая способность, хорошая устойчивость к изменениям формы символов, низкое число отказов от распознавания, высокое быстродействие. Наиболее серьезный недостаток этих методов ? неустойчивость к различным дефектам изображения. Кроме того, признаковые методы обладают другим серьезным недостатком ? на этапе извлечения признаков происходит необратимая потеря части информации о символе. Извлечение признаков ведется независимо, поэтому информация о взаимном расположении элементов символа утрачивается [5].


Рисунок 4 - Обобщенный алгоритм работы признаковых методов
Структурные методы представляют объект как граф, узлами которого являются элементы входного объекта, а дугами ? пространственные отношения между ними. Методы, реализующие подобный подход, обычно работают с векторными изображениями. Структурными элементами являются составляющие символ линии. Так, для буквы "Ф" ? это вертикальный отрезок и дуга. Распознаваемый символ подвергается процедуре скелетизации (утоньшению) (рисунок 5). Каждый полученный контур скелетного представления описывается в виде последовательного набора особых точек и «цепного» кода, состоящего из точки привязки, числа кодов и массива направлений из текущей точки к следующей [5].


Рисунок 5 ? Процесс скелетизации образа при структурных методах

Для каждой особой точки скелетного образа вычисляются следующие признаки:
? нормированные координаты особой точки;
? длина ребра до следующей вершины;
? нормированное направление из данной точки в следующую;
? нормированное направление входа в точку и выхода из точки;
? кривизна дуги, соединяющая особую точку со следующей вершиной.
На рисунке 6 условно показаны некоторые из топологических признаков. Граф имеет пять особых точек - a0, a1, a2, a3, a4. При обходе графа по маршруту a0 - a1 - a2... в вершине a1 условно показаны следующие признаки: вектор R1 ? направление входа в точку, вектор R2 ? направление выхода из точки, вектор R3 ? глобальное направление на следующую особую точку. Двунаправленный вектор h показывает величину «левого» отклонения дуги (a1, a2) от прямой; «правое» отклонение равно нулю.
Как видно из приведенного описания, число признаков равняется восьмикратному числу вершин. Оно различается для разных топологических кодов, и признаки с одинаковым номером для разных топологических кодов могут иметь разный смысл [5].

Рисунок 6 ? Выделение признаков образа

a0, a1, a2, a3, a4 ? особые точки;
r1 ? направление входа в точку;
r2 ? направление выхода из точки;
r3 ? глобальное направление на следующую особую точку;
h ? величина отклонения дуги (a1, a2) влево от прямой.

Обучение метода состоит в построении деревьев распознавания для каждого из определенных заранее (вручную или автоматически) топологических кодов.
В современных системах распознавания обычно используются все три типа классификаторов, но основным является структурный. Два других служат для ускорения и повышения качества распознавания. Комбинация различных методов распознавания приводит к наилучшим результатам, примером может служить метод структурно-пятенных эталонов компании ABBYY.
Структурно-пятенные эталонные методы. Технология распознавания с помощью структурно-пятенных эталонов имеет также название «фонтанное преобразование» (от английского font - шрифт). Данный способ обработки символьной информации разработан программистами компании ABBYY и используется в системе оптического распознавания текста "FineReader Рукопись" (рисунок 7) [5].

Рисунок 7 ? Последовательность работы системы распознавания на основе метода фонтанного преобразования

Структурно-пятенный эталон (рисунок 8) позволяет представить изображения в виде набора пятен, связанных между собой n-арными отношениями, задающими структуру символа. Эти отношения (то есть расположение пятен друг относительно друга) образуют структурные элементы, составляющие символ. Так, например, отрезок ? это один тип n-арных отношений между пятнами, эллипс ? другой, дуга ? третий. Другие отношения задают пространственное расположение образующих символ элементов [5].

Рисунок 8 ? Структурно-пятенный эталон

При задании структурных элементов и отношений используются конкретизирующие параметры, позволяющие доопределить структурный элемент или отношение при использовании этого элемента в эталоне конкретного класса. Для структурных элементов конкретизирующими могут являться, например, параметры, задающие диапазон допустимой ориентации отрезка, а для отношений - параметры, задающие предельное допустимое расстояние между характерными точками структурных элементов в отношении «соприкасается». В качестве отношений используются связи между структурными элементами, которые определяются либо метрическими характеристиками этих элементов (например, «длина больше»), либо их взаимным расположением на изображении (например, «правее», «соприкасается»). Таким образом, в эталоне задаются:
? имя;
? обязательные, запрещающие и необязательные структурные элементы;
? отношения между структурными элементами;
? отношения, связывающие структурные элементы с описывающим прямоугольником символа;
? атрибуты, используемые для выделения структурных элементов;
? атрибуты, используемые для проверки отношений между элементами;
? атрибуты, используемые для оценки качества элементов и отношений;
? позиция, с которой начинается выделение элемента (отношения локализации элементов).
Структурные элементы, выделяемые для класса изображений, могут быть исходными и составными. Исходные структурные элементы ? это пятна, составные ? отрезок, дуга, кольцо, точка. В качестве составных структурных элементов, в принципе, могут быть взяты любые объекты, описанные в эталоне. Кроме того, они могут быть описаны как через исходные, так и через другие составные структурные элементы [5].
Например, для распознавания японских иероглифов (слоговое письмо) составными элементами для описания слога являются описания отдельных букв (но не отдельные элементы букв). В итоге, использование составных структурных элементов позволяет строить иерархические описания классов распознаваемых объектов (рисунок 9).


Рисунок 9 - Пример распознавания японских иероглифов

Распознавание с использованием структурно-пятенного эталона происходит следующим образом. Эталон накладывается на изображение, и отношения между выделенными на изображении пятнами сравниваются с отношениями пятен в эталоне. Если выделенные на изображении пятна и отношения между ними удовлетворяют эталону некоторого символа, то данный символ добавляется в список гипотез о результате распознавания входного изображения.
Данная разработка фирмы ABBYY первоначально использовалась для распознавания рукописного текста, а затем была успешно применена и для обработки печатных символов. При этом обеспечиваются все достоинства шаблонного и структурного классификаторов. Также данное представление нечувствительно к различным начертаниям и дефектам символов [5].

1.4 Распознавание слитного рукописного текста
Рассмотрим основные подходы, используемые при распознавании рукописного текста [1].
Прежде всего, рассмотрим подход, основанный на использовании искусственных нейронных сетей. Искусственные нейронные сети представляют собой соединения искусственных нейронов.
Входные сигналы x1, x2, …, xN подаются на сумматор с учетом весов w1, w2, wN. Кроме того, на нейрон подается единичное смещение. Выходной сигнал нейрона определяется выражением:
, (1)
Функция f обычно имеет вид:
,(2)
При распознавании рукописного текста используются нейронные сети различного вида: радиальные нейронные сети, сверточные сети, многослойные персептроны. Они имеют различную структуру, но у них общие принципы построения, обучения и распознавания. Рассмотрим один из видов нейронных сетей - многослойный персептрон. Схема трехслойного персептрона приведена на рисунке 10.
Имеется входной слой, на который подаются входные сигналы x1, x2, xN и единичное смещение, далее расположен скрытый слой с K нейронами, затем выходной слой с M нейронами [1].


Рисунок 10 - Трехслойный персептрон

В выходном слое k-й нейрон вырабатывает выходной сигнал, определяемый как
,(3)
w(1)ij - веса связей нейронов скрытого слоя; w(2)ki - веса связей нейронов выходного слоя.
При распознавании букв признаки, описывающие букву, подаются на входы нейронной сети, вычисляется выходной вектор и сравнивается с эталонными выходными векторами. Для буквы «а» эталонный вектор d может иметь вид (1, 0, 0, …, 0), для буквы «б» - (0, 1, 0, …, 0) и т.д.
До использования нейронной сети для распознавания ее необходимо обучить, т.е. подобрать веса связей так, чтобы при подаче признаков буквы на вход на выходе был вектор, близкий к эталонному вектору для этой буквы. Обучение осуществляется методом обратного распространения ошибки.
На вход нейронной сети подается некоторая буква, которой соответствует эталонный вектор d = (d1, d2, …, dM), и вычисляется выходной вектор y = (y1, y2, …, yM). Далее определяется ошибка по формуле:
,(4)
Ошибка является функцией весов W. Затем выполняется поиск минимума этой функции. Поиск осуществляется градиентными методами, т.е. на каждом шаге проводится уточнение весов:
,(5)
? - const.
Далее на вход сети подается следующая буква и процесс повторяется. После обучения с использованием всех букв сеть готова к распознаванию.
Рассмотрим теперь формирование входных сигналов для нейронной сети на основе изображения буквы. Предварительно удаляются шумы, и выполняется скелетизация.
Один из вариантов - это непосредственная подача координат пикселей скелета на входы нейронной сети. Но разные буквы имеют различное число пикселей в скелете, а число входов у нейронной сети не может быть переменным. Если нейронная сеть имеет N входов, то из скелета буквы выбирается N/2 пикселей, определяющих форму буквы, и их координаты используются в качестве входных сигналов нейронной сети. Недостаток такого способа формирования входных сигналов сети заключается в высокой чувствительности сети к небольшим изменениям формы и, как следствие, в невысокой распознающей способности.
Более подходящим способом формирования входных сигналов для сети является использование дискретного преобразования Фурье. Каждый пиксель скелета представляется комплексным числом z(i) = x(i) + j y(i).
Для последовательности точек образа вычисляются коэффициенты дискретного преобразования Фурье:
,(6)
Для k = 0, 1, 2, …, M - 1, где M - это число точек в образе.
Отдельные компоненты преобразования Фурье образуют вектор F = [F0, F1, F2, …, FM - 1].
Нулевой компонент F0 представляет собой среднее значение (центр тяжести) множества точек образа. Если приравнять F0 к нулю, то это приведет к перемещению образа в стандартную позицию. Наиболее значимыми для отображения структуры образа являются компоненты F1 и FM - 1, далее следуют F2 и FM - 2 и т.д. Выбирая K таких пар, мы формируем редуцированный вектор = [0, F1, F2, …, FK, FM-K, …, FM-2 FM-1], который независимо от числа пикселей в исходном образе имеет фиксированную длину 2K + 1.
Таким образом, независимо от буквы на входы нейронной сети будут подаваться 4K сигналов.
Здесь следует сделать одно замечание. Значения компонентов вектора F гарантированно уменьшаются при переходе к середине последовательности для замкнутого контура. Скелет буквы в общем случае таковым не является, хотя в ряде экспериментов это свойство выполнялось и для незамкнутых скелетов. Поэтому вместо скелета буквы можно было бы использовать замкнутую оболочку, построенную вокруг буквы (предложено совместно с С.В. Федотовым). Эту оболочку можно строить как на некотором расстоянии от контура буквы (как на рисунке 11), так и непосредственно по контуру [1].




Рисунок 11 - Контур буквы

Еще один способ формирования входных сигналов для нейронной сети - это использование косинусного преобразования.
Достоинством нейронных сетей являются невысокая чувствительность к шумам и возможность настройки на почерк. Недостаток же состоит в том, что при добавлении букв, написанных новым почерком, необходимо полное переобучение сети. Другим подходом к распознаванию рукописного текста может быть структурный подход, основанный на использовании графов или графоподобных конструкций, а еще одним - подход, основанный на использовании скрытых моделей Маркова.
Скрытая модель Маркова - это совокупность двух случайных процессов: скрытого случайного процесса, который нельзя зарегистрировать, и определяемого им наблюдаемого случайного процесса. На рисунке 12 показаны скрытый марковский и наблюдаемый процессы.
Случайная переменная x(t) характеризует состояние скрытого марковского процесса в момент времени t. Стрелки отражают взаимные связи. Состояние процесса в момент t зависит только от его состояния в момент времени t - 1. Значение наблюдаемой переменной y(t) зависит только от состояния в момент времени t [значения переменной x(t)]. Скрытая модель Маркова определяется следующими элементами:
1) множеством состояний S = {S1, S2, …, SN}. Текущее состояние процесса в момент времени t будем обозначать qt;
2) множеством наблюдаемых значений в наблюдаемой последовательности ;
3) матрицей вероятностей переходов (матрицей переходов) A = {aij}, где aij = P[qt+1 = Sj][qt = Si] есть вероятность того, что процесс, находящийся в состоянии Si в момент времени t, в момент времени t + 1 перейдет в состояние Sj;
4) матрицей распределения вероятностей наблюдаемых значений B = { bj (k)}, где bj(k) = [vk | qy = Sj] - вероятность того, что система, находящаяся в некоторый момент времени в состоянии Sj, выдаст в наблюдаемую последовательность значение vk;
5) распределением вероятностей начального состояния ? = {?i}, где ?i = P[q1 = Si] - вероятность того, что начальное состояние процесса есть Si.
Совокупность значений N, M, A, B определяет скрытую марковскую модель. Она может порождать наблюдаемую последовательность O = O1, O2, …, Ot , где Ot - одно из значений множества V, а T - длина наблюдаемой последовательности. Будем использовать обозначение ? = (A, B, ?) для обозначения достаточного описания параметров модели [1].
Задача распознавания заключается в том, чтобы по имеющейся последовательности наблюдений O1, O2, …, Ot восстановить последовательность скрытых состояний q1, q2, …, qt ,порождающую эти наблюдения с наибольшей вероятностью, и найти саму эту вероятность.

Рисунок 12 - Скрытый марковский и наблюдаемый процессы

Рукописная буква представляется последовательностью состояний цепи Маркова. Буква разбивается на сегменты, и сегменту соответствует состояние цепи. Буквы могут разбиваться на сегменты по-разному. Пример разбиения буквы на сегменты приведен на рисунке 13 [1].

Рисунок 13 - Разбиение буквы на сегменты

Для представления буквы могут быть использованы разные модели. Один из вариантов представления буквы в виде цепи Маркова показан на рисунке 14. Здесь буква разбивается максимум на три сегмента. Вероятности переходов из состояния в состояние определяются в процессе обучения. Наблюдаемые величины - это наборы признаков, описывающих сегменты. В качестве признаков могут использоваться: вертикальная и горизонтальная гистограммы, наличие верхней петли или верхнего восходящего штриха, наличие нижней петли или нижнего штриха, наличие замкнутого контура в основной области письма, наличие полукруглого контура в основной области письма и т.д. Перед сегментацией необходимо устранить наклон базовой линии строки и наклон букв [1].
Достоинством моделей Маркова является то, что при их использовании не требуется скелетизация изображения. Однако другие вспомогательные операции: устранение наклона базовой линии, устранение наклона букв, выделение признаков - являются довольно трудоемкими.
Предлагается комбинированный подход, включающий в себя процедуру разбиения, основанную на анализе структуры слова, и процедуру распознавания, основанную на использовании нейронной сети, в частности многослойного персептрона. Процедура разбиения, имеет определенный недостаток, а именно: необходим достаточно большой перебор при формировании кандидата в символы. В данной работе рассматривается модифицированная процедура (модификация предложена совместно с А.В. Ефимовым), призванная сократить объем перебора [1].
Разбиение слова - задача неоднозначная, при этом возможны различные варианты, поэтому результатом данного этапа является граф символов слова G(C) - ориентированный граф без циклов, ребра которого соответствуют символам. Каждый путь в графе G(C) от начальной до конечной вершины представляет собой один из возможных вариантов распознавания данного слова.
При распознавании будем использовать список упорядоченных плетей и два указателя на элементы этого списка. При этом среднюю ширину символа ? предполагаем известной.


Рисунок 14 - Представление буквы в виде цепи Маркова

Обобщенная процедура распознавания слова имеет следующий вид:
1) выполняется предварительная обработка изображения слова - устраняются шумы и проводится утоньшение линий;
2) выделяются плети - последовательности точек между концевыми точками и/или точками ветвления;
3) формируется упорядоченный список плетей исходного слова (плети упорядочиваются слева направо и сверху вниз). Формируется начальная вершина ? графа G(C). Эта вершина становится текущей вершиной графа G(C). Указатель активной плети устанавливается на первую
плеть в списке;
4) сбрасывается признак наличия распознанных символов;
5) указатель текущей плети устанавливается в позицию указателя на активную плеть;
6) выполняется очистка множества плетей текущего символа;
7) текущая плеть добавляется в текущее множество;
8) для текущего множества плетей выполняется распознавание символа с помощью нейронной сети. Если символ распознан, то в графе G(C) формируются новая текущая вершина w и ребро e, соединяющее эту вершину с вершиной v. Новая вершина w включается в очередь текщих вершин. Ребро e помечается распознанным символом. Указатель текущей плети передвигается на следующую плеть. Устанавливается признак наличия распознанных символов;
9) если число плетей, включаемых в текущее множество, не превышает заданный предел и ширина формируемого кандидата в символы не превышает , то переходим к этапу 7;
10) если очередь активных вершин не пуста, то выбираем из очереди новую активную вершину v; указатель текущей плети устанавливаем на плеть, следующую за плетью, включенной в распознанные символы последней. Переходим к этапу 6;
11) если обработаны все плети, то работа заканчивается;
12) если признак наличия распознанных символов установлен, то указатель активной плети устанавливаем на плеть, следующую за плетью, включенной в распознанные символы последней; иначе указатель активной плети сдвигается на одну позицию. Переходим к этапу 4.
В итоге формируется граф вариантов распознавания слова. Средняя ширина символа неизвестна для первого распознаваемого слова. После того как первое слово распознано, вычисляется средняя ширина символа, и далее используется модифицированная процедура.
Таким образом, рассмотрен ряд подходов к распознаванию слитного рукописного текста, отмечаются их достоинства и недостатки. Предлагается комбинированный подход, включающий в себя процедуру разбиения, основанную на анализе структуры слова, и процедуру распознавания, основанную на использовании нейронной сети [1].



ПРАКТИЧЕСКАЯ ЧАСТЬ
2.1 Описание рукописных букв
В данной курсовой работе для изучения выбрана буква «Л» из древнерусского алфавита XV-XVIIв.
Написание буквы «Л» за данные века:

Рисунок 15 - Изображение буквы «Л» в XV веке


Рисунок 16 - Изображение буквы «Л» в XVI веке


Рисунок 17 - Изображение буквы «Л» в XVII веке

2.1 Выделение информативных признаков рукописной буквы «Л»
Выделяем крайние и существенные точки, нумеровать начинаем с левой стороны буквы, то есть сначала по Y, потом по Х.

Рисунок 18 - Информативные признаки буквы «Л»

2.1 Деформация буквы
Для первого экземпляра буквы "Л" получилось шесть деформаций:


Рисунок 19 - Деформации буквы «Л»

Для второго экземпляра буквы "Л" получилось девять деформаций:



Рисунок 20 - Деформации буквы «Л»

2.2 Матрицы смежности для всех деформаций
Матрицы смежности строим по следующим правилам:

Таблица 2 - Правила построения матриц смежности


Берем смежные точки, то есть те, которые соединяются напрямую друг с другом, и записываем двузначное число. Первая цифра: какая конкретно дуга или прямая, в какую сторону наклонена и на какой угол. Вторая цифра показывает: 0 - если точки соединены прямой, 1 - если соединены дугой, смотрящей вверх, 2 - если соединены дугой, направленной вниз.


Рисунок 21 - Первый экземпляр буквы «Л»

Таблица 3 - Матрица смежности для первого экземпляра
1 2 3 4 5 6 7 8 9 10
1 0 10 0 0 0 0 0 0 0 0
2 10 0 70 0 0 0 0 0 0 0
3 0 70 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 0
7 0 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 0 0 0 0 0
9 0 0 0 0 0 0 0 0 0 0
10 0 0 0 0 0 0 0 0 0 0


Рисунок 22 - Деформация первого экземпляра буквы «Л»


Таблица 4 - Матрица смежности для деформации первого экземпляра
1 2 3 4 5 6 7 8 9 10
1 0 10 0 0 0 0 0 0 0 0
2 10 0 60 0 0 0 0 0 0 0
3 0 60 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 0
7 0 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 0 0 0 0 0
9 0 0 0 0 0 0 0 0 0 0
10 0 0 0 0 0 0 0 0 0 0



Рисунок 23 - Деформация первого экземпляра буквы «Л»

Таблица 5 - Матрица смежности для деформации первого экземпляра
1 2 3 4 5 6 7 8 9 10
1 0 10 0 0 0 0 0 0 0 0
2 10 0 70 0 0 0 0 0 0 0
3 0 70 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 0
7 0 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 0 0 0 0 0
9 0 0 0 0 0 0 0 0 0 0
10 0 0 0 0 0 0 0 0 0 0


Рисунок 24 - Деформация первого экземпляра буквы «Л»


Таблица 6 - Матрица смежности для третьего экземпляра
1 2 3 4 5 6 7 8 9 10
1 0 61 71 0 0 0 0 0 0 0
2 61 0 0 0 0 0 0 0 0 0
3 71 0 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 0
7 0 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 0 0 0 0 0
9 0 0 0 0 0 0 0 0 0 0
10 0 0 0 0 0 0 0 0 0 0



Рисунок 25 - Деформация первого экземпляра буквы «Л»

Таблица 7 - Матрица смежности для деформации третьего экземпляра
1 2 3 4 5 6 7 8 9 10
1 0 12 0 0 0 0 0 0 0 0
2 12 0 61 0 0 0 0 0 0 0
3 0 61 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 0
7 0 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 0 0 0 0 0
9 0 0 0 0 0 0 0 0 0 0
10 0 0 0 0 0 0 0 0 0 0



Рисунок 26 - Деформация первого экземпляра буквы «Л»

Таблица 8 - Матрица смежности для деформации третьего экземпляра
1 2 3 4 5 6 7 8 9 10
1 0 71 71 0 0 0 0 0 0 0
2 71 0 0 0 0 0 0 0 0 0
3 71 0 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 0
7 0 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 0 0 0 0 0
9 0 0 0 0 0 0 0 0 0 0
10 0 0 0 0 0 0 0 0 0 0


Рисунок 27 - Деформация первого экземпляра буквы «Л»

Таблица 9 - Матрица смежности для деформации третьего экземпляра
1 2 3 4 5 6 7 8 9 10
1 0 22 0 0 0 0 0 0 0 0
2 22 0 21 0 0 0 0 0 0 0
3 0 21 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 0
7 0 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 0 0 0 0 0
9 0 0 0 0 0 0 0 0 0 0
10 0 0 0 0 0 0 0 0 0 0



Рисунок 28 - Деформация первого экземпляра буквы «Л»

Таблица 10 - Матрица смежности для деформации третьего экземпляра
1 2 3 4 5 6 7 8 9 10
1 0 0 11 0 0 0 0 0 0 0
2 0 0 12 0 0 0 0 0 0 0
3 11 12 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 0
7 0 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 0 0 0 0 0
9 0 0 0 0 0 0 0 0 0 0
10 0 0 0 0 0 0 0 0 0 0


Рисунок 29 - Деформация первого экземпляра буквы «Л»

Таблица 11 - Матрица смежности для деформации третьего экземпляра
1 2 3 4 5 6 7 8 9 10
1 0 72 71 0 0 0 0 0 0 0
2 72 0 0 0 0 0 0 0 0 0
3 71 0 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 0
7 0 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 0 0 0 0 0
9 0 0 0 0 0 0 0 0 0 0
10 0 0 0 0 0 0 0 0 0 0



Рисунок 30 - Второй экземпляр буквы «Л»

Таблица 12 - Матрица смежности для второго экземпляра
1 2 3 4 5 6 7 8 9 10
1 0 0 10 0 0 0 0 0 0 0
2 0 0 70 0 0 0 0 0 0 0
3 10 70 0 70 0 0 0 0 0 0
4 0 0 70 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 0
7 0 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 0 0 0 0 0
9 0 0 0 0 0 0 0 0 0 0
10 0 0 0 0 0 0 0 0 0 0


Рисунок 31 - Деформация второго экземпляра буквы «Л»

Таблица 13 - Матрица смежности для деформации второго экземпляра
1 2 3 4 5 6 7 8 9 10
1 0 0 10 0 0 0 0 0 0 0
2 0 0 60 0 0 0 0 0 0 0
3 10 60 0 60 0 0 0 0 0 0
4 0 0 60 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 0
7 0 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 0 0 0 0 0
9 0 0 0 0 0 0 0 0 0 0
10 0 0 0 0 0 0 0 0 0 0

Рисунок 32 - Деформация второго экземпляра буквы «Л»

Таблица 14 - Матрица смежности для деформации второго экземпляра
1 2 3 4 5 6 7 8 9 10
1 0 0 10 0 0 0 0 0 0 0
2 0 0 0 0 0 0 0 0 0 0
3 10 0 0 70 0 0 0 0 0 0
4 0 0 70 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 0
7 0 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 0 0 0 0 0
9 0 0 0 0 0 0 0 0 0 0
10 0 0 0 0 0 0 0 0 0 0


Рисунок 33 - Деформация второго экземпляра буквы «Л»

Таблица 15 - Матрица смежност........



Перейти к полному тексту работы


Скачать работу с онлайн повышением уникальности до 90% по antiplagiat.ru, etxt.ru или advego.ru


Смотреть похожие работы

* Примечание. Уникальность работы указана на дату публикации, текущее значение может отличаться от указанного.