На бирже курсовых и дипломных проектов можно найти образцы готовых работ или получить помощь в написании уникальных курсовых работ, дипломов, лабораторных работ, контрольных работ, диссертаций, рефератов. Так же вы мажете самостоятельно повысить уникальность своей работы для прохождения проверки на плагиат всего за несколько минут.

ЛИЧНЫЙ КАБИНЕТ 

 

Здравствуйте гость!

 

Логин:

Пароль:

 

Запомнить

 

 

Забыли пароль? Регистрация

Повышение уникальности

Предлагаем нашим посетителям воспользоваться бесплатным программным обеспечением «StudentHelp», которое позволит вам всего за несколько минут, выполнить повышение уникальности любого файла в формате MS Word. После такого повышения уникальности, ваша работа легко пройдете проверку в системах антиплагиат вуз, antiplagiat.ru, etxt.ru или advego.ru. Программа «StudentHelp» работает по уникальной технологии и при повышении уникальности не вставляет в текст скрытых символов, и даже если препод скопирует текст в блокнот – не увидит ни каких отличий от текста в Word файле.

Результат поиска


Наименование:


доклад Супер Компьютеры

Информация:

Тип работы: доклад. Добавлен: 13.11.2012. Сдан: 2012. Страниц: 7. Уникальность по antiplagiat.ru: < 30%

Описание (план):



Министерство образования и науки РФ ФГОУ СПО
Волгоградский Технологический колледж
 
 
 
 
 
 
 
 
 
 
Реферат
по дисциплине:
Информатика
На тему:
«Супер-компьютеры»
 
 
 
 
 
 
 
 
 
 
Выполнила:
 
студенка группы
 
Проверил:
 
 
 
 
 
 
 
 
 
 
 
 
 
Волгоград 2009.
 
Содержание:
Суперкомпьютеры - что это?              2
Суперкомпьютеры - зачем это?              4
Суперкомпьютеры в современной жизни              5
Сверхсложные вычислительные задачи, решаемые на суперкомпьютерах              6
Список использованной литературы…………………………………....………...............7
 
Суперкомпьютеры - что это?
О том, что где-то существуют некие мистические "очень мощные" компьютеры слышал, наверное, каждый. В самом деле, не так давно было много разговоров о поставке в Гидрометеоцентр России могучих компьютеров фирмы Cray Research. В прессе регулярно проходят сообщения о нелегальных поставках вычислительной техники, попадающей под эмбарго американского правительства. Опять же, если компьютер с именем Deep Blue самого Гарри Каспарова, то он, согласитесь - и здесь интуиция Вас не подвела, ну никак не может быть простой персоналкой.
Для многих подобные компьютеры так и остаются тайной за семью печатями, некой TERRA INCOGNITA, с которой ассоциации всегда связаны с чем-то большим: огромные размеры, большие задачи, крупные фирмы и компании, невероятные скорости работы или что-то иное, но обязательно это будет "на грани", для чего "обычного" явно мало, а подойдет только "супер", суперкомпьютер или супер-ЭВМ. В этом интуитивном восприятии есть изрядная доля истины, поскольку к классу супер-ЭВМ принадлежат лишь те компьютеры, которые имеют максимальную производительность в настоящее время. Быстрое развитие компьютерной индустрии определяет относительность данного понятия - то, что десять лет назад можно было назвать суперкомпьютером, сегодня под это определение уже не попадает. Например, производительность персональных компьютеров, использующих Pentium-II/300MHz, сравнима с производительностью суперкомпьютеров начала 70-х годов, однако по сегодняшним меркам суперкомпьютерами не являются ни те, ни другие.
В любом компьютере все основные параметры тесно связаны. Трудно себе представить универсальный компьютер, имеющий высокое быстродействие и мизерную оперативную память, либо огромную оперативную память и небольшой объем дисков. Следуя логике, делаем вывод: супер-ЭВМ это компьютеры, имеющие в настоящее время не только максимальную производительность, но и максимальный объем оперативной и дисковой памяти, а также специализированное ПО, с помощью которого можно эффективно всем этим воспользоваться.
Определений суперкомпьютерам пытались давать много, иногда серьезных, иногда ироничных. В частности, лет пять назад, когда эта тема поднималась в конференции comp.parallel, Кен Батчер (Ken Batcher) предложил такой вариант: суперкомпьютер - это устройство, сводящее проблему вычислений к проблеме ввода/вывода. Все верно, в каждой шутке есть доля шутки: что раньше долго вычислялось, временами сбрасывая нечто на диск, на супер-ЭВМ может выполниться мгновенно, переводя стрелки неэффективности на относительно медленные устройства ввода/вывода.
Так о чем же речь, и какие суперкомпьютеры существуют в настоящее время в мире? Вот несколько примеров, показывающих основные параметры машин этого класса.
CRAY T932, векторно-конвейерный компьютер фирмы CRAY Research Inc. (в настоящее время это подразделение Silicon Graphics Inc.), впервые выпущенный в 1996 году. Максимальная производительность одного процессора равна почти 2 млрд. операций в секунду, оперативная память наращивается до 8Гб (Гига это в тысячу раз больше, чем Мега), дисковое пространство до 256000Гб (т.е. 256Тб, Тера это в тысячу раз больше, чем Гига). Компьютер в максимальной конфигурации содержит 32 подобных процессора, работающих над единой общей памятью, поэтому максимальная производительность всей вычислительной системы составляет более 60 млрд. операций в секунду.
IBM SP2, массивно-параллельный компьютер фирмы IBM (иногда такие компьютеры называют компьютерами с массовым параллелизмом). В настоящее время строится на основе стандартных микропроцессоров PowerPC 604e или POWER2 SC, соединенных между собой через высокоскоростной коммутатор, причем каждый имеет свою локальную оперативную память и дисковую подсистему. Характеристики этих микропроцессоров известны и особых удивлений не вызывают, однако в рамках одной SP системы их может быть объединено очень много. В частности, максимальная система, установленная в Pacific Northwest National Laboratoriy (Richland, USA), содержит 512 процессоров. Исходя из числа процессоров, можно представить суммарную мощность всей вычислительной системы...
HP Exemplar, компьютер с кластерной архитектурой от Hewlett-Packard Inc. В частности, модель V2250 (класс V) построена на основе микропроцессора PA-8200, работающего с тактовой частотой 240MHz. До 16 процессоров можно объединить в рамках одного узла с общей оперативной памятью до 16Гб. В свою очередь узлы в рамках одной вычислительной системы соединяются между собой через высокоскоростные каналы передачи данных.
ASCI RED, детище программы Accelerated Strategic Computing Initiative, - это самый мощный на настоящий момент компьютер. Построенный по заказу Министерства энергетики США, он объединяет 9152 (!) процессоров Pentium Pro, имеет 600Гб суммарной оперативной памяти и общую производительность 1800 миллиардов операций в секунду. Человеку потребовалось бы 57000 лет, чтобы даже с калькулятором выполнить все те операции, которые этот компьютер делает за 1 секунду!
Простые расчеты показывают, что даже умеренные конфигурации таких компьютеров могут стоить не один миллион долларов США - ради интереса прикиньте, сколько стоят, скажем, лишь 600 Гбайт оперативной памяти? Возникает целый ряд естественных вопросов:
Какие задачи настолько важны, что требуются компьютеры стоимостью несколько миллионов долларов?
Или, какие задачи настолько сложны, что хорошего Pentium-IV не достаточно?

Суперкомпьютеры - зачем это?
Для того, чтобы оценить сложность решаемых на практике задач, возьмем конкретную предметную область, например, оптимизацию процесса добычи нефти. Имеем подземный нефтяной резервуар с каким-то число пробуренных скважин - по одним на поверхность откачивается нефть, по другим обратно закачивается вода. Нужно смоделировать ситуацию в данном резервуаре, чтобы оценить запасы нефти или понять необходимость в дополнительных скважинах.
Примем упрощенную схему, при которой моделируемая область отображается в куб, однако и ее будет достаточно для оценки числа необходимых арифметических операций. Разумные размеры куба, при которых можно получать правдоподобные результаты - это 100*100*100 точек. В каждой точке куба надо вычислить от 5 до 20 функций: три компоненты скорости, давление, температуру, концентрацию компонент (вода, газ и нефть - это минимальный набор компонент, в более реалистичных моделях рассматривают, например, различные фракции нефти). Далее, значения функций находятся как решение нелинейных уравнений, что требует от 200 до 1000 арифметических операций. И наконец, если исследуется нестационарный процесс, т.е. нужно понять, как эта система ведет себя во времени, то делается 100-1000 шагов по времени. Что получилось:
106(точек сетки)*10(функций)*500(операций)*500(шагов по времени) = 2.5*1012
2500 миллиардов арифметических операций для выполнения одного лишь расчета! А изменение параметров модели? А отслеживание текущей ситуации при изменении входных данных? Подобные расчеты необходимо делать много раз, что накладывает очень жесткие требования на производительность используемых вычислительных систем.
Примеры использования суперкомпьютеров можно найти не только в нефтедобывающей промышленности (см. Приложение). 
По данным Марка Миллера (Mark Miller, Ford Motor Company), для выполнения crash-тестов, при которых реальные автомобили разбиваются о бетонную стену с одновременным замером необходимых параметров, съемкой и последующей обработкой результатов, компании Форд понадобилось бы от 10 до 150 прототипов новых моделей при общих затратах от 4 до 60 миллионов долларов. Использование суперкомпьютеров позволило сократить число прототипов на одну треть.
В 1995 году корпус автомобиля Nissan Maxima удалось сделать на 10% прочнее благодаря использованию суперкомпьютера фирмы Cray (The Atlanta Journal, 28 мая, 1995г). С помощью него были найдены не только слабые точки кузова, но и наиболее эффективный способ их удаления. Совсем свежий пример - это развитие одной из крупнейших мировых систем резервирования Amadeus, используемой тысячами агентств со 180000 терминалов в более чем ста странах. Установка двух серверов Hewlett-Packard T600 по 12 процессоров в каждом позволила довести степень оперативной доступности центральной системы до 99.85% при текущей загрузке около 60 миллионов запросов в сутки.
И подобные примеры можно найти повсюду. В свое время исследователи фирмы DuPont искали замену хлорофлюорокарбону. Нужно было найти материал, имеющий те же положительные качества: невоспламеняемость, стойкость к коррозии и низкую токсичность, но без вредного воздействия на озоновый слой Земли. За одну неделю были проведены необходимые расчеты на суперкомпьютере с общими затратами около 5 тысяч долларов. По оценкам специалистов DuPont, использование традиционных экспериментальных методов исследований потребовало бы около трех месяцев и 50 тысяч долларов и это без учета времени, необходимого на синтез и очистку необходимого количества вещества.
Япония не собирается долго терпеть превосходство США в области суперкомпьютерных технологий: в ближайшие 5 лет в стране восходящего солнца построят кластер нового поколения, в 73 раза превосходящий по производительности нынешнего рекордсмена - Blue Gene/L от IBM.
 
Суперкомпьютеры в современной жизни.
Японское правительство официально объявило о том, что в апреле 2006 года начнется сборка суперкомпьютера, вычислительная мощность которого достигнет 10 квадрильонов (1015) операций в секунду, или 10 петафлоп. Новый японский кластер будет в 73 раза производительнее нынешнего лидера списка Top500 — американской системы Blue Gene/L от IBM.
Японское министерство образования, культуры, спорта, науки и технологий планирует лишь в 2006 финансовом году вложить в проект создания нового суперкомпьютера 10 млрд. йен ($89 млн.). Тендер на создание суперкомпьютера выиграли компании NEC и Hitachi, а научную базу подготовят университеты г. Токио и острова Кюсю. Новый суперкомпьютер позволит японским ученым более точно моделировать действие лекарственных препаратов, создавать модели зарождения Вселенной, делать достоверные прогнозы погоды и прочее.
Всего в разработку новой системы будет инвестировано от 80 до 100 млрд. йен ($714–893 млн.). Эти цифры пока официально не подтверждены министерством, финансовая сторона проекта будет окончательно утверждена к концу августа этого года. Если бюджет на следующий год будет принят, то проект создания суперкомпьютера нового поколения будет завершен в 2010 финансовом году, который заканчивается в марте 2011 года.
Суперкомпьютер Blue Gene, созданный в IBM, установлен и работает в ливерморской национальной лаборатории им. Лоуренса министерства энергетики США. Ему принадлежит нынешний мировой рекорд производительности — 135,3 трлн. операций в секунду (135,3 терафлоп). До этого в течение трех лет (с июня 2002 года) мировым лидером в области суперкомпьютерных вычислений являлся японский кластер Earth Simulator, построенный из компьютеров NEC SX-6, производительность которого достигала 35,86 терафлоп. В настоящее время Earth Simulator находится на четвертом месте — он уступает двум системам Blue Gene от IBM и суперкомпьютеру Columbia от компании SGI, установленному в НАСА и работающему на базе процессоров Intel Itanium 2.
Напомним, что в прошлом году максимальная производительность Blue Gene достигла 70,72 терафлоп, что позволило ему обойти японский Earth Simulator и стать самым быстрым вычислительным устройством в мире. Все свои рекорды Blue Gene/L поставил, находясь в недостроенном состоянии. Завершить сборку Blue Gene планируется уже в этом году. Предполагается, что это позволит суперкомпьютеру достичь быстродействия в 360 терафлоп. В настоящий момент количество отдельных модулей увеличено с 16 до 32, в перспективе их число возрастет до 64. Каждая стойка содержит 1024 процессора с двумя ядрами каждый. С момента появления в 1976 г. в Лос-Аламосской лаборатории первого суперкомпьютера Cray-1, выполнявшего 80 млн. операций в секунду, этот показатель вырос в 500 тыс. раз. Кроме того, Blue Gene/L требуется в 15 раз меньше энергии, чем первым суперкомпьютерам.
В своей финальной конфигурации компьютер Blue Gene позволит ученым, в частности, изучать методами математического моделирования различные аспекты безопасности, защищенности и надежности ядерного арсенала США без проведения для этого ядерных испытаний. Но «военная» тема — не единственная. Использование суперкомпьютеров уже позволило ученым существенно продвинуться в понимании структуры белков, климатических процессов, разрушительных стихийных феноменов — таких, как цунами.
 
Сверхсложные вычислительные задачи, решаемые на суперкомпьютерах.
Grand challenges - это фундаментальные научные или инженерные задачи с широкой областью применения, эффективное решение которых возможно только с использованием мощных (суперкомпьютерных) вычислительных ресурсов.
Вот лишь некоторые области, где возникают задачи подобного рода:
?      Предсказания погоды, климата и глобальных изменений в атмосфере
?      Науки о материалах
?      Построение полупроводниковых приборов
?      Сверхпроводимость
?      Структурная биология
?      Разработка фармацевтических препаратов
?      Генетика человека
?      Квантовая хромодинамика
?      Астрономия
?      Транспортные задачи
?      Гидро- и газодинамика
?      Управляемый термоядерный синтез
?      Эффективность систем сгорания топлива
?      Разведка нефти и газа
?      Вычислительные задачи наук о мировом океане
?      Распознавание и синтез речи
?      Распознавание изображений
 
 
Список использованной литературы:
 
1.      Материалы сайта http://www.parallel.ru
2.      Материалы сайта http://www.top500.org
3.      Материалы сайта http://www.osp.ru/archive/56.htm

4.      Материалы сайта http://www.netlib.org/linpack/

5.      Лекции по информатике.

2

 




и т.д.................


Перейти к полному тексту работы


Скачать работу с онлайн повышением уникальности до 90% по antiplagiat.ru, etxt.ru или advego.ru


Смотреть полный текст работы бесплатно


Смотреть похожие работы


* Примечание. Уникальность работы указана на дату публикации, текущее значение может отличаться от указанного.