На бирже курсовых и дипломных проектов можно найти образцы готовых работ или получить помощь в написании уникальных курсовых работ, дипломов, лабораторных работ, контрольных работ, диссертаций, рефератов. Так же вы мажете самостоятельно повысить уникальность своей работы для прохождения проверки на плагиат всего за несколько минут.

ЛИЧНЫЙ КАБИНЕТ 

 

Здравствуйте гость!

 

Логин:

Пароль:

 

Запомнить

 

 

Забыли пароль? Регистрация

Повышение уникальности

Предлагаем нашим посетителям воспользоваться бесплатным программным обеспечением «StudentHelp», которое позволит вам всего за несколько минут, выполнить повышение уникальности любого файла в формате MS Word. После такого повышения уникальности, ваша работа легко пройдете проверку в системах антиплагиат вуз, antiplagiat.ru, etxt.ru или advego.ru. Программа «StudentHelp» работает по уникальной технологии и при повышении уникальности не вставляет в текст скрытых символов, и даже если препод скопирует текст в блокнот – не увидит ни каких отличий от текста в Word файле.

Результат поиска


Наименование:


реферат Первые работы в области решения интелектуальных задач в работах Ньюэла, Саймона и Поспелова

Информация:

Тип работы: реферат. Добавлен: 27.08.2012. Сдан: 2011. Страниц: 3. Уникальность по antiplagiat.ru: < 30%

Описание (план):


 
РЕФЕРАТ

 
На  тему:   Первые работы в области решения интелектуальных задач в работах Ньюэла, Саймона и Поспелова.

Выполнил(а):   Рябова Алина

                            Проверил(а):

Бишкек 2011 г.

Первые  работы в области  решения интелектуальных задач в работах Ньюэла, Саймона и Поспелова.

 
 
 
Характеристика  периодов исследований
История исследований в области ИИ, начиная примерно с 1950 года и по сегодняшний день, условно разделена на четыре периода. За основу периодизации были взяли те направления исследований, которые наиболее активно развивались в течении каждого из периодов, как в смысле наибольшей активности ученых, так и в смысле получения наиболее существенных практических результатов. 
Исследования в области искусственного интеллекта начались практически сразу же после появления компьютеров и первых опытов по их применению для других, более «приземленных» целей. На следующем этапе развитие научной и инженерной мысли было направлено на создание компьютера, способного на автоматизацию интеллектуальной человеческой деятельности, на то, чтобы сложные интеллектуальные задачи, считавшиеся прерогативой человека, решались техническими средствами [5, 6]. 
Исследования начались вскоре после окончания Второй мировой войны, когда были предприняты попытки решать с помощью компьютера игровые задачи и головоломки. Исследовательским полигоном для развития методов ИИ на первом этапе явились всевозможные игры, головоломки, математические задачи. Некоторые из этих задач стали классическими в литературе по ИИ (задачи об обезьяне и бананах, миссионерах и людоедах, Ханойской башне, игра в 15 и другие). 
Выбор таких задач обуславливался простотой и ясностью проблемной среды (среды, в которой разворачивается решение задачи), ее относительно малой громоздкостью, возможностью достаточно легкого подбора и даже искусственного конструирования «под метод». Конечно, такие задачи интеллектуальных систем недостаточно серьезны, чтобы представлять большую практическую ценность для реальных приложений. Однако сейчас, оглядываясь назад, можно проследить, как некоторые идеи и подходы к решению проблем с помощью компьютера выросли именно из этих первых экспериментов. 
Основной расцвет такого рода исследований приходится на конец 60-х годов, после чего стали делаться первые попытки применения разработанных методов для задач, решаемых не в искусственных, а в реальных проблемных средах. 
Необходимость исследования систем ИИ при их функционировании в реальном мире привело к постановке задачи создания интегральных роботов. Проведение таких работ можно считать вторым этапом исследований по ИИ. В Стэнфордском университете, Стэнфордском исследовательском институте и некоторых других местах были разработаны экспериментальные роботы, функционирующие в лабораторных условиях. Проведение этих экспериментов показало необходимость решения кардинальных вопросов, связанных с проблемой представления знаний о среде функционирования, и одновременно недостаточную исследованность таких проблем, как зрительное восприятие, построение сложных планов поведения в динамических средах, общение с роботами на естественном языке [11]. 
Эти проблемы были более ясно сформулированы и поставлены перед исследователями в середине 70-х гг, связанных с началом третьего этапа исследований систем ИИ. Характерной чертой этого этапа явилось смещение центра внимания исследователей с создания автономно функционирующих систем, самостоятельно решающих в реальной среде поставленные перед ними задачи, к созданию человеко-машинных систем, интегрирующих в единое целое интеллект человека и способности ВМ для достижения общей цели – решения задачи, поставленной перед интегральной человеко-машинной решающей системой [10, 11]. 
Такое смещение обуславливалось двумя причинами: 
• К этому времени выяснилось, что даже простые на первый взгляд задачи, возникающие перед интегральным роботом при его функционировании в реальном времени, не могут быть решены методами, разработанными для экспериментальных задач специально сформированных проблемных средах. 
• Стало ясно, что сочетание дополняющих друг друга возможностей человека и ЭВМ позволяет обойти острые углы путем перекладывания на человека тех функций, которые пока еще не доступны для ЭВМ. На первый план выдвигалась не разработка отдельных методов машинного решения задач, а разработка методов средств, обеспечивающих тесное взаимодействие человека и вычислительной системы в течение всего процесса решения задачи с возможностью оперативного внесения человеком изменений в ходе этого процесса. 
Развитие исследований по ИИ в данном направлении обусловливалось также резким ростом производства средств вычислительной техники, а также резким их удешевлением, делающим их потенциально доступными для более широких кругов пользователей.

На мой взгляд, период от середины 60-х до середины 70-х можно назвать «романтическим»  в истории исследований искусственного интеллекта. В это время внимание исследователей сосредоточилось в  основном на проблеме машинного «понимания», т.е. способности воспринимать естественный язык человека, в частности вести  осмысленный диалог. Эти попытки  были встречены философами с определенным скепсисом. Они сомневались в  том, что по отношению к компьютерной программе вообще можно употреблять  слово «понимание». 
Период, который можно назвать периодом «модернизма», продолжался с середины 70-х до конца 80-х годов. Он характеризуется значительным прогрессом в области экспертных систем и так называемой «зимней спячкой» в области «чистого» искусственного интеллекта, интерес к которому возобновился с появлением Всемирной паутины. 
Период, который начался с 1990 года и продолжается по сегодняшний день можно отнести к периоду «постмодернизма», характеризовать который достаточно трудно, поскольку автор сам является участником происходящих в нем событий. Но, не боясь ошибиться, можно утверждать, что происходящее в этом периоде во многом определяется развитием Internet-приложений, в частности интеллектуальных агентов и советчиков, облегчающих и упрощающих извлечение информации при работе со средствами электронной коммерции. 
Успехи и неудачи в области искусственного интеллекта в этот период в значительной мере зависят от возможности и желания исследователей преодолеть влияние традиционных концепций, характерных для прежних периодов, и сосредоточить усилия на реальных проблемах новой информационной среды.

Периоды исследований и разработок по созданию ИИ 
История исследований и разработок систем искусственного интеллекта ведущихся с 1950 года, несмотря на свою краткость, может быть разделена на четыре периода [6, 8, 12]: 
1. 50-е – начало 70-х годов XX века – исследования по «общему интеллекту», попытки смоделировать общие интеллектуальные процессы, свойственные человеку: свободный диалог, решение разнообразных задач, доказательство теорем, различные игры (шашки, шахматы и т.д.), сочинение стихов и музыки и т.д.; 
2. 70-е годы – исследования и разработка подходов к формальному представлению знаний и умозаключений, попытки свести интеллектуальную деятельность к формальным преобразованиям символов, строк и т.д.; 
3. с конца 70-х годов – разработка специализированных на определенных предметных областях интеллектуальных систем, имеющих прикладное практическое значение (экспертные системы); 
4. 90-е годы – фронтальные работы по созданию ЭВМ 5-го поколения, построенных на иных принципах, чем обычные универсальные ЭВМ, и программного обеспечения для них.

Перечисление  основных исследований, трудов и разработок в области ИИ относящихся к вышеперечисленным периодам приведено в последующих главах. 
Первый период 
Начало исследований в области ИИ (конец 50-х годов) связывают с работами Ньюэлла, Саймана и Шоу, исследовавших процессы решения различных задач. Результатами их работ явились такие программы как «логик-теоретик», предназначенная для доказательства теорем в исчислении высказываний, и «общий решатель». Эти работы положили начало первому этапу исследований в области ИИ, связанному с разработкой программ, решающих задачи на основе применения разнообразных эвристических методов. 
В 50-х годах исследователи в области ИИ пытались строить разумные машины, имитируя процессы, протекающие в мозге человека [8, 9]. 
В конце 1950 года американскими учеными Г. Розен-блаттом и П. Мак-Каллоком были созданы первые нейросети. Это были попытки создать системы, моделирующие человеческий глаз и его взаимодействие с мозгом. Устройство, созданное ими, получило название перцептрона. Оно умело различать буквы алфавита, но было чувствительно к их написанию, например, буквы « А », « А » и « А » для этого устройства были тремя разными знаками. 
В конце 50-х годов родилась модель лабиринтного поиска. Этот подход представляет задачу как некоторый граф, отражающий пространство состояний, и в этом графе проводится поиск оптимального пути от входных данных к результирующим. Была проделана большая работа по разработке этой модели, но в решении практических задач идея большого распространения не получила [12]. 
В 1954 году в МГУ под руководством профессора А.Ляпунова (1911 – 1973 гг.) начал свою работу семинар «Автоматы и мышление». В этом семинаре принимали участие крупнейшие физиологи, лингвисты, психологи, математики. Принято считать, что именно в это время зародился искусственный интеллект в России. 
В те годы в России, как и за рубежом, выделились направления нейрокибернетики и кибернетики «черного ящика». 
Основную идею нейрокибернетики можно сформулировать следующим образом. Единственный объект, способный мыслить, – это человеческий мозг. Поэтому любое «мыслящее» устройство должно каким-то образом воспроизводить его структуру. Таким образом, нейрокибернетика ориентирована на аппаратное моделирование структур, подобных структуре мозга. Физиологами давно установлено, что основой человеческого мозга является большое количество (до 1021) связанных между собой и взаимодействующих нервных клеток – нейронов. Поэтому усилия нейрокибернетики были сосредоточены на создании элементов, аналогичных нейронам, и их объединении в функционирующие системы. Эти системы принято называть нейронными сетями, или нейросетями [12]. 
В основу кибернетики «черного ящика» лег принцип, противоположный нейрокибернетике. Не имеет значения, как устроено «мыслящее» устройство, главное, чтобы на заданные входные воздействия оно реагировало так же, как человеческий мозг. Это направление искусственного интеллекта было ориентировано на поиски алгоритмов решения интеллектуальных задач на существующих моделях компьютеров [12].

В 60-х годах  в России предпринимались попытки  отыскать общие методы решения широкого класса задач, моделируя сложный  процесс мышления. Разработка универсальных  программ оказалась слишком трудным  и бесплодным делом, т.к. чем шире был класс задач, которые может  решать одна программа, тем беднее оказываются  ее возможности при решении конкретной проблемы. Эти попытки оказались  безуспешными по причине полной непригодности как аппаратных так и программных средств [9]. 
В 1961 году профессор Д. Мичи, один из ведущих английских специалистов по ИИ, описал механизм, состоящий из 300 спичечных коробков, который мог научиться играть в крестики и нолики. Мичи назвал это устройство MENACE (Matchbox Educable Naughts and Crosses Engine). 
В 1964 году А. Робинсон доказал, что метод резолюции обладает свойством «полноты»: если исходное утверждение истинно, то в любом случае рано или поздно этот метод приведет к противоречию. Если же исходное утверждение ложно, то нет гарантии в том, что процесс вывода при помощи резолюции не окажется бесконечным. Таким образом, метод резолюций Робинсона позволяет автоматически доказывать теоремы при наличии набора исходных аксиом. Выводы Робинсона положили начало активным исследованиям, связанным с применением метода резолюции и других родственных ему методов в области автоматического доказательства теорем. Однако у метода резолюции есть один крупный недостаток: он подвержен явлению «комбинаторного взрыва», когда число резолюций, проводимых программой, растет экспоненциально как функция сложности задачи. Программы, успешно применяющие метод резолюции на небольших пробных задачах, как правило, не справляются с более интересными задачами реального мира, масштабы которых значительно шире [9]. 
В 1945 – 1964 годах создаются отдельные программы и исследуется поиск решения логических задач. В Ленинграде в ЛОМИ (ЛОМИ – Ленинградское отделение математического института им. В.А.Стеклова) создается программа, автоматически доказывающая теоремы (АЛПЕВ ЛОМИ). Программа основана на оригинальном обратном выводе С.Ю.Маслова , аналогичном методу резолюций Робинсона [9, 11]. 
Среди наиболее значимых результатов, полученных отечественными учеными, следует отметить алгоритм «Кора» М.Бонгарда, моделирующий деятельность человеческого мозга при распознавании образов (60-е годы).

Начало 60-х годов  принято называть эпохой эвристического программирования. Приведем необходимую  терминологию. Эвристика – это  правило, теоретически не обоснованное, но позволяющее сократить количество переборов в пространстве поиска. В свою очередь эвристическое  программирование – разработка стратегии  действий на основе известных, заранее  заданных эвристик. Эвристические знания – знания, накапливаемые интеллектуальной системой в процессе ее функционирования, а также знания, заложенные в ней  априорно, но не имеющие статуса  абсолютной истинности в данной проблемной области. Обычно эвристические знания связаны с отражением в базе знаний неформального опыта решения задач. 
Эвристический метод решения задачи при этом рассматривался как свойственный человеческому мышлению «вообще», для которого характерно возникновение догадок о пути решения задачи с последующей их проверкой. 
Ему противопоставлялся используемый в ЭВМ алгоритмический метод, который интерпретировался как механическое осуществление заданной последовательности шагов, детерминировано приводящей к правильному ответу. 
Трактовка эвристических методов решения задач как сугубо человеческой деятельности и обусловила появление и дальнейшее распространение термина ИИ [12].

Так, при описании своих программ Ньюэлл и Саймон приводили в качестве доводов, подтверждающих, что их программы моделируют человеческое мышление, результаты сравнения записей доказательств теорем в виде программ с записями рассуждения «думающего вслух» человека. В начале 70-х годов они опубликовали много данных подобного рода и предложили общую методику составления программ, моделирующих мышление.
Второй период 
На дальнейшие исследования в области ИИ большое влияние оказало появление метода резолюций Робинсона, основанного на доказательстве теорем в логике предикатов и являющегося исчерпывающим методом доказательства. При этом определение термина ИИ претерпело существенное изменение. 
Целью исследований, проводимых в направлении ИИ, стала разработка программ, способных решать «человеческие задачи». Так, один из видных исследователей ИИ того времени Р. Бенерджи в 1969 году писал: «Область исследований, обычно называемую ИИ, вероятно, можно представить как совокупность методов и средств анализа и конструирования машин, способных выполнять задания, с которыми до недавнего времени мог справиться только человек. При этом по скорости и эффективности машины должны быть сравнимы с человеком» [9]. 
Функциональный подход к направленности исследований по ИИ сохранился в основном до настоящего времени, хотя еще и сейчас ряд ученых, особенно психологов, пытаются оценивать результаты работ по ИИ с позиций их соответствия человеческому мышлению. 
В начале 70-х годов специалисты в области ИИ сосредоточили свое внимание на разработке методов и приемов программирования, пригодных для решения более специализированных задач: 
• методов представления – способ формулирования проблемы для решения на средствах вычислительной техники; 
• методов поиска – способ управления ходом решения так, чтобы оно не требовало слишком большого объема памяти и времени. 
В 1963 – 1970 годах в России к решению задач стали подключать методы математической логики. На основе метода резолюций, позволившего автоматически доказывать теоремы при наличии набора исходных аксиом, в 1973 году создается язык программирования Пролог.

В период модернизма возросла уверенность, что эвристические  возможности «решателя» проблем  определяются представлением в явной  форме соответствующих зданий, доступных  программе, а не применением какого-то изощренного механизма определения  взаимовлияния или сложных оценочных  функций. Значительные усилия были направлены на разработку методов разбиения  знаний, присущих человеку, на модули, которые можно было бы активизировать по заданной схеме. 
Уже при первых попытках сымитировать процесс разрешения проблем, характерный для человеческого разума (например, в работе Ньюэлла и Саймона в 1972 году), исследователи столкнулись с ограниченными возможностями представления знаний и необходимостью упростить механизм их взаимовлияний, хотя более поздние исследования и помогли в определенной степени преодолеть эти трудности. 
Примерно в то время, когда работы Ньюэлла и Саймона стали привлекать к себе внимание, в Массачусетсском технологическом институте, Стэнфордском университете и Стэнфордском исследовательском институте также сформировались исследовательские группы в области ИИ. В противоположность ранним работам Ньюэлла и Саймона эти исследования больше относились к формальным математическим представлениям. Способы решения задач в этих исследованиях развивались на основе расширения математической и символической логики. Моделированию же человеческого мышления придавалось второстепенное значение [9, 12]. 
Третий период 
Существенный прорыв в практических приложениях искусственного интеллекта произошел в середине 70-х годов, когда на смену поискам универсального алгоритма мышления пришла идея моделировать конкретные знания специалистов-экспертов. 
В конце 70-х годов была принята принципиально новая концепция, которая заключается в том, что для создания интеллектуальной программы ее необходимо снабдить множеством высококачественных специальных знаний о некоторой предметной области. Развитие этого направления привело к созданию направления по разработке экспертных систем (ЭС) [9]. 
В США появились первые коммерческие системы, основанные на знаниях, или так называемые экспертные системы. Был создан новый подход к решению задач искусственного интеллекта – представление знаний. Были созданы такие экспертные системы как MYCIN и DENDRAL – ставшие уже классическими экспертными системами для медицины и химии. 
В эти годы было объявлено о создании нескольких глобальных программ развития интеллектуальных технологий – ESPRIT (Европейский Союз), DARPA (министерство обороны США), японский проект машин V поколения. 
В 1965-1980 годах в России получает развитие новая наука – ситуационное управление, что соответствует представлению знаний в западной терминологии. Основоположником этой научной школы являлся профессор Д.А.Поспелов. Им были разработаны специальные модели представления ситуаций – представления знаний. 
В 1976 году Ньюэлл и Саймон следующим образом сформулировали гипотезу физической символической системы (Physical Symbol System Hypothesis): «Физическая символическая система имеет необходимые и достаточные средства для того, чтобы производить осмысленные действия». Другими словами, без символических вычислений невозможно выполнять осмысленные действия, а способность выполнять символические вычисления вполне достаточна для того, чтобы быть способным выполнять осмысленные действия. Таким образом, если мы полагаем, что животное, или человек, или машина действуют осмысленно, то значит, они каким-то образом выполняют символические вычисления (т.е. животные в действительности умнее, чем мы о них думаем) [12]. 
В работах Ньюэлла и Саймона разработана так называемая парадигма символьной обработки информации и предложена гипотеза о физической символьной системе, в соответствии с которой человеческое мышление представляет собой некоторую систему, оперирующую с материальными символами, отображающими действительность. Такой же физической символьной системой признается и ЭВМ. 
Независимо от того, справедлива ли эта гипотеза, символические вычисления стали реальностью, и полезность этой парадигмы для программирования трудно отрицать. Подобное представление, в целом развивающее идеи А.Тьюринга, в дальнейшем стало описываться как компьютерная метафора и концепция «бестелесного интеллекта».

Перейти к полному тексту работы


Скачать работу с онлайн повышением уникальности до 90% по antiplagiat.ru, etxt.ru или advego.ru


Смотреть полный текст работы бесплатно


Смотреть похожие работы


* Примечание. Уникальность работы указана на дату публикации, текущее значение может отличаться от указанного.