Здесь можно найти учебные материалы, которые помогут вам в написании курсовых работ, дипломов, контрольных работ и рефератов. Так же вы мажете самостоятельно повысить уникальность своей работы для прохождения проверки на плагиат всего за несколько минут.

ЛИЧНЫЙ КАБИНЕТ 

 

Здравствуйте гость!

 

Логин:

Пароль:

 

Запомнить

 

 

Забыли пароль? Регистрация

Повышение оригинальности

Предлагаем нашим посетителям воспользоваться бесплатным программным обеспечением «StudentHelp», которое позволит вам всего за несколько минут, выполнить повышение оригинальности любого файла в формате MS Word. После такого повышения оригинальности, ваша работа легко пройдете проверку в системах антиплагиат вуз, antiplagiat.ru, РУКОНТЕКСТ, etxt.ru или advego.ru. Программа «StudentHelp» работает по уникальной технологии так, что на внешний вид, файл с повышенной оригинальностью не отличается от исходного.

Результат поиска


Наименование:


доклад Супер Компьютеры

Информация:

Тип работы: доклад. Добавлен: 13.11.2012. Сдан: 2012. Страниц: 7. Уникальность по antiplagiat.ru: < 30%

Описание (план):



Министерство образования и науки РФ ФГОУ СПО
Волгоградский Технологический колледж
 
 
 
 
 
 
 
 
 
 
Реферат
по дисциплине:
Информатика
На тему:
«Супер-компьютеры»
 
 
 
 
 
 
 
 
 
 
Выполнила:
 
студенка группы
 
Проверил:
 
 
 
 
 
 
 
 
 
 
 
 
 
Волгоград 2009.
 
Содержание:
Суперкомпьютеры - что это?              2
Суперкомпьютеры - зачем это?              4
Суперкомпьютеры в современной жизни              5
Сверхсложные вычислительные задачи, решаемые на суперкомпьютерах              6
Список использованной литературы…………………………………....………...............7
 
Суперкомпьютеры - что это?
О том, что где-то существуют некие мистические "очень мощные" компьютеры слышал, наверное, каждый. В самом деле, не так давно было много разговоров о поставке в Гидрометеоцентр России могучих компьютеров фирмы Cray Research. В прессе регулярно проходят сообщения о нелегальных поставках вычислительной техники, попадающей под эмбарго американского правительства. Опять же, если компьютер с именем Deep Blue самого Гарри Каспарова, то он, согласитесь - и здесь интуиция Вас не подвела, ну никак не может быть простой персоналкой.
Для многих подобные компьютеры так и остаются тайной за семью печатями, некой TERRA INCOGNITA, с которой ассоциации всегда связаны с чем-то большим: огромные размеры, большие задачи, крупные фирмы и компании, невероятные скорости работы или что-то иное, но обязательно это будет "на грани", для чего "обычного" явно мало, а подойдет только "супер", суперкомпьютер или супер-ЭВМ. В этом интуитивном восприятии есть изрядная доля истины, поскольку к классу супер-ЭВМ принадлежат лишь те компьютеры, которые имеют максимальную производительность в настоящее время. Быстрое развитие компьютерной индустрии определяет относительность данного понятия - то, что десять лет назад можно было назвать суперкомпьютером, сегодня под это определение уже не попадает. Например, производительность персональных компьютеров, использующих Pentium-II/300MHz, сравнима с производительностью суперкомпьютеров начала 70-х годов, однако по сегодняшним меркам суперкомпьютерами не являются ни те, ни другие.
В любом компьютере все основные параметры тесно связаны. Трудно себе представить универсальный компьютер, имеющий высокое быстродействие и мизерную оперативную память, либо огромную оперативную память и небольшой объем дисков. Следуя логике, делаем вывод: супер-ЭВМ это компьютеры, имеющие в настоящее время не только максимальную производительность, но и максимальный объем оперативной и дисковой памяти, а также специализированное ПО, с помощью которого можно эффективно всем этим воспользоваться.
Определений суперкомпьютерам пытались давать много, иногда серьезных, иногда ироничных. В частности, лет пять назад, когда эта тема поднималась в конференции comp.parallel, Кен Батчер (Ken Batcher) предложил такой вариант: суперкомпьютер - это устройство, сводящее проблему вычислений к проблеме ввода/вывода. Все верно, в каждой шутке есть доля шутки: что раньше долго вычислялось, временами сбрасывая нечто на диск, на супер-ЭВМ может выполниться мгновенно, переводя стрелки неэффективности на относительно медленные устройства ввода/вывода.
Так о чем же речь, и какие суперкомпьютеры существуют в настоящее время в мире? Вот несколько примеров, показывающих основные параметры машин этого класса.
CRAY T932, векторно-конвейерный компьютер фирмы CRAY Research Inc. (в настоящее время это подразделение Silicon Graphics Inc.), впервые выпущенный в 1996 году. Максимальная производительность одного процессора равна почти 2 млрд. операций в секунду, оперативная память наращивается до 8Гб (Гига это в тысячу раз больше, чем Мега), дисковое пространство до 256000Гб (т.е. 256Тб, Тера это в тысячу раз больше, чем Гига). Компьютер в максимальной конфигурации содержит 32 подобных процессора, работающих над единой общей памятью, поэтому максимальная производительность всей вычислительной системы составляет более 60 млрд. операций в секунду.
IBM SP2, массивно-параллельный компьютер фирмы IBM (иногда такие компьютеры называют компьютерами с массовым параллелизмом). В настоящее время строится на основе стандартных микропроцессоров PowerPC 604e или POWER2 SC, соединенных между собой через высокоскоростной коммутатор, причем каждый имеет свою локальную оперативную память и дисковую подсистему. Характеристики этих микропроцессоров известны и особых удивлений не вызывают, однако в рамках одной SP системы их может быть объединено очень много. В частности, максимальная система, установленная в Pacific Northwest National Laboratoriy (Richland, USA), содержит 512 процессоров. Исходя из числа процессоров, можно представить суммарную мощность всей вычислительной системы...
HP Exemplar, компьютер с кластерной архитектурой от Hewlett-Packard Inc. В частности, модель V2250 (класс V) построена на основе микропроцессора PA-8200, работающего с тактовой частотой 240MHz. До 16 процессоров можно объединить в рамках одного узла с общей оперативной памятью до 16Гб. В свою очередь узлы в рамках одной вычислительной системы соединяются между собой через высокоскоростные каналы передачи данных.
ASCI RED, детище программы Accelerated Strategic Computing Initiative, - это самый мощный на настоящий момент компьютер. Построенный по заказу Министерства энергетики США, он объединяет 9152 (!) процессоров Pentium Pro, имеет 600Гб суммарной оперативной памяти и общую производительность 1800 миллиардов операций в секунду. Человеку потребовалось бы 57000 лет, чтобы даже с калькулятором выполнить все те операции, которые этот компьютер делает за 1 секунду!
Простые расчеты показывают, что даже умеренные конфигурации таких компьютеров могут стоить не один миллион долларов США - ради интереса прикиньте, сколько стоят, скажем, лишь 600 Гбайт оперативной памяти? Возникает целый ряд естественных вопросов:
Какие задачи настолько важны, что требуются компьютеры стоимостью несколько миллионов долларов?
Или, какие задачи настолько сложны, что хорошего Pentium-IV не достаточно?

Суперкомпьютеры - зачем это?
Для того, чтобы оценить сложность решаемых на практике задач, возьмем конкретную предметную область, например, оптимизацию процесса добычи нефти. Имеем подземный нефтяной резервуар с каким-то число пробуренных скважин - по одним на поверхность откачивается нефть, по другим обратно закачивается вода. Нужно смоделировать ситуацию в данном резервуаре, чтобы оценить запасы нефти или понять необходимость в дополнительных скважинах.
Примем упрощенную схему, при которой моделируемая область отображается в куб, однако и ее будет достаточно для оценки числа необходимых арифметических операций. Разумные размеры куба, при которых можно получать правдоподобные результаты - это 100*100*100 точек. В каждой точке куба надо вычислить от 5 до 20 функций: три компоненты скорости, давление, температуру, концентрацию компонент (вода, газ и нефть - это минимальный набор компонент, в более реалистичных моделях рассматривают, например, различные фракции нефти). Далее, значения функций находятся как решение нелинейных уравнений, что требует от 200 до 1000 арифметических операций. И наконец, если исследуется нестационарный процесс, т.е. нужно понять, как эта система ведет себя во времени, то делается 100-1000 шагов по времени. Что получилось:
106(точек сетки)*10(функций)*500(операций)*500(шагов по времени) = 2.5*1012
2500 миллиардов арифметических операций для выполнения одного лишь расчета! А изменение параметров модели? А отслеживание текущей ситуации при изменении входных данных? Подобные расчеты необходимо делать много раз, что накладывает очень жесткие требования на производительность используемых вычислительных систем.
Примеры использования суперкомпьютеров можно найти не только в нефтедобывающей промышленности (см. Приложение). 
По данным Марка Миллера (Mark Miller, Ford Motor Company), для выполнения crash-тестов, при которых реальные автомобили разбиваются о бетонную стену с одновременным замером необходимых параметров, съемкой и последующей обработкой результатов, компании Форд понадобилось бы от 10 до 150 прототипов новых моделей при общих затратах от 4 до 60 миллионов долларов. Использование суперкомпьютеров позволило сократить число прототипов на одну треть.
В 1995 году корпус автомобиля Nissan Maxima удалось сделать на 10% прочнее благодаря использованию суперкомпьютера фирмы Cray (The Atlanta Journal, 28 мая, 1995г). С помощью него были найдены не только слабые точки кузова, но и наиболее эффективный способ их удаления. Совсем свежий пример - это развитие одной из крупнейших мировых систем резервирования Amadeus, используемой тысячами агентств со 180000 терминалов в более чем ста странах. Установка двух серверов Hewlett-Packard T600 по 12 процессоров в каждом позволила довести степень оперативной доступности центральной системы до 99.85% при текущей загрузке около 60 миллионов запросов в сутки.
И подобные примеры можно найти повсюду. В свое время исследователи фирмы DuPont искали замену хлорофлюорокарбону. Нужно было найти материал, имеющий те же положительные качества: невоспламеняемость, стойкость к коррозии и низкую токсичность, но без вредного воздействия на озоновый слой Земли. За одну неделю были проведены необходимые расчеты на суперкомпьютере с общими затратами около 5 тысяч долларов. По оценкам специалистов DuPont, использование традиционных экспериментальных методов исследований потребовало бы около трех месяцев и 50 тысяч долларов и это без учета времени, необходимого на синтез и очистку необходимого количества вещества.
Япония не собирается долго терпеть превосходство США в области суперкомпьютерных технологий: в ближайшие 5 лет в стране восходящего солнца построят кластер нового поколения, в 73 раза превосходящий по производительности нынешнего рекордсмена - Blue Gene/L от IBM.
 
Суперкомпьютеры в современной жизни.
Японское правительство официально объявило о том, что в апреле 2006 года начнется сборка суперкомпьютера, вычислительная мощность которого достигнет 10 квадрильонов (1015) операций в секунду, или 10 петафлоп. Новый японский кластер будет в 73 раза производительнее нынешнего лидера списка Top500 — американской системы Blue Gene/L от IBM.
Японское министерство образования, культуры, спорта, науки и технологий планирует лишь в 2006 финансовом году вложить в проект создания нового суперкомпьютера 10 млрд. йен ($89 млн.). Тендер на создание суперкомпьютера выиграли компании NEC и Hitachi, а научную базу подготовят университеты г. Токио и острова Кюсю. Новый суперкомпьютер позволит японским ученым более точно моделировать действие лекарственных препаратов, создавать модели зарождения Вселенной, делать достоверные прогнозы погоды и прочее.
Всего в разработку новой системы будет инвестировано от 80 до 100 млрд. йен ($714–893 млн.). Эти цифры пока официально не подтверждены министерством, финансовая сторона проекта будет окончательно утверждена к концу августа этого года. Если бюджет на следующий год будет принят, то проект создания суперкомпьютера нового поколения будет завершен в 2010 финансовом году, который заканчивается в марте 2011 года.
Суперкомпьютер Blue Gene, созданный в IBM, установлен и работает в ливерморской национальной лаборатории им. Лоуренса министерства энергетики США. Ему принадлежит нынешний мировой рекорд производительности — 135,3 трлн. операций в секунду (135,3 терафлоп). До этого в течение трех лет (с июня 2002 года) мировым лидером в области суперкомпьютерных вычислений являлся японский кластер Earth Simulator, построенный из компьютеров NEC SX-6, производительность которого достигала 35,86 терафлоп. В настоящее время Earth Simulator находится на четвертом месте — он уступает двум системам Blue Gene от IBM и суперкомпьютеру Columbia от компании SGI, установленному в НАСА и работающему на базе процессоров Intel Itanium 2.
Напомним, что в прошлом году максимальная производительность Blue Gene достигла 70,72 терафлоп, что позволило ему обойти японский Earth Simulator и стать самым быстрым вычислительным устройством в мире. Все свои рекорды Blue Gene/L поставил, находясь в недостроенном состоянии. Завершить сборку Blue Gene планируется уже в этом году. Предполагается, что это позволит суперкомпьютеру достичь быстродействия в 360 терафлоп. В настоящий момент количество отдельных модулей увеличено с 16 до 32, в перспективе их число возрастет до 64. Каждая стойка содержит 1024 процессора с двумя ядрами каждый. С момента появления в 1976 г. в Лос-Аламосской лаборатории первого суперкомпьютера Cray-1, выполнявшего 80 млн. операций в секунду, этот показатель вырос в 500 тыс. раз. Кроме того, Blue Gene/L требуется в 15 раз меньше энергии, чем первым суперкомпьютерам.
В своей финальной конфигурации компьютер Blue Gene позволит ученым, в частности, изучать методами математического моделирования различные аспекты безопасности, защищенности и надежности ядерного арсенала США без проведения для этого ядерных испытаний. Но «военная» тема — не единственная. Использование суперкомпьютеров уже позволило ученым существенно продвинуться в понимании структуры белков, климатических процессов, разрушительных стихийных феноменов — таких, как цунами.
 
Сверхсложные вычислительные задачи, решаемые на суперкомпьютерах.
Grand challenges - это фундаментальные научные или инженерные задачи с широкой областью применения, эффективное решение которых возможно только с использованием мощных (суперкомпьютерных) вычислительных ресурсов.
Вот лишь некоторые области, где возникают задачи подобного рода:
?      Предсказания погоды, климата и глобальных изменений в атмосфере
?      Науки о материалах
?      Построение полупроводниковых приборов
?      Сверхпроводимость
?      Структурная биология
?      Разработка фармацевтических препаратов
?      Генетика человека
?      Квантовая хромодинамика
?      Астрономия
?      Транспортные задачи
?      Гидро- и газодинамика
?      Управляемый термоядерный синтез
?      Эффективность систем сгорания топлива
?      Разведка нефти и газа
?      Вычислительные задачи наук о мировом океане
?      Распознавание и синтез речи
?      Распознавание изображений
 
 
Список использованной литературы:
 
1.      Материалы сайта http://www.parallel.ru
2.      Материалы сайта http://www.top500.org
3.      Материалы сайта http://www.osp.ru/archive/56.htm

4.      Материалы сайта http://www.netlib.org/linpack/

5.      Лекции по информатике.

2

 




и т.д.................


Перейти к полному тексту работы


Скачать работу с онлайн повышением уникальности до 90% по antiplagiat.ru, etxt.ru или advego.ru


Смотреть полный текст работы бесплатно


Смотреть похожие работы


* Примечание. Уникальность работы указана на дату публикации, текущее значение может отличаться от указанного.