Семейство компьютеров Ultra

В данной главе будут рассмотрены основные серии компьютеров семейства Ultra. По функциональному назначению все семейство можно разбить на две категории:

Все они очень похожи друг на друга и часто используют одинаковые функциональные узлы. Так, рабочие станции Ultra 1&2 и серверы Ultra Enterprise 1&2 с точки зрения их внутренней архитектуры представляют собой практически одни и те же машины. Поэтому в последующих разделах при рассмотрении конкретных представителей семейства основной упор сделан на корпоративные серверы Ultra Enterprise (здесь понятие "корпоративный" означает не мощность вычислительной системы, а область ее применения), представляющие собой законченный ряд (полный спектр) компьютеров, закрывающий потребности любой организации на любом уровне — от рабочих групп до центров обработки данных и серверов баз данных. Серверы Ultra Enterprise имеют наиболее широкий модельный ряд, и от них легко перейти к рассмотрению остальных групп.

По своему назначению, уровню производительности и стоимости компания Sun Microsystems выделяет три типа серверов серии Ultra Enterprise:

Однако, поскольку в данной статье основным критерием является архитектура той или иной системы, а не ее цена, то далее будет использоваться другая классификация — по типу реализации UPA-архитектуры. В результате также получается три группы серверов.

К первой относятся серверы с одноуровневой UPA-архитектурой (Ultra Enterprise 1&2, 150 и 450).

Вторую группу составляют серверы, имеющие комбинированную двухуровневую архитектуру, в которой первый уровень (архитектура модуля) базируется на UPA, а второй уровень (архитектура межмодульных соединений) построен на основе общей шины (модели серии Ultra Enterprise X000).

Наконец, в третью группу попал только один сервер — Ultra Enterprise Server 10000, имеющий двухуровневую UPA-архитектуру.

Перейдем к рассмотрению перечисленных групп и отдельных моделей.

Серверы с одноуровневой UPA-архитектурой

Общая характеристика группы

В первую группу входят 4 модели: Ultra Enterprise 1, 2, 150 и 450 (см. Таб. 1 ). Согласно введенной выше классификации, они относятся к системам с одноуровневой архитектурой UPA. Это означает, что все функциональные узлы, имеющие UPA-порты, обращаются к общей памяти через единственный коммутатор шин данных (структурные схемы конкретных моделей приведены ниже), то есть данные проходят по маршруту "UPA-порт — коммутатор — память". По классификации компании эти компьютеры также попадают в одну группу серверов начального уровня (серверов рабочих групп). Такое совпадение не случайно, поскольку для серверов рабочих групп одним из важнейших является показатель производительность/стоимость, который имеет наилучшие значения именно у машин с одноуровневой UPA-архитектурой.

Таблица 1. Параметры серверов Ultra Enterprise 1, 2, 150 и 450.

_

spanname="modelSpan">Модель

         

Характеристика

Ultra Enterprise 1

Ultra Enterprise 150

spanname="Ultra2">Ultra Enterprise 2

Ultra Enterprise 450

   

_

170

150

2170

2200

2300

450

Тип процессора

spanname="Sparc1">UltraSPARC I

spanname="Sparc2">UltraSPARC II

       

Тактовая частота

167 MHz

167 MHz

167 MHz

200 MHz

300 MHz

250 MHz

300 MHz

Число ЦПУ

1

1

2

2

2

1-4

Вторичный кэш

512 KB

512 KB

512 KB

1 MB

2 MB

1 MB / 2 MB

ОЗУ

64 MB — 1 GB

32 MB — 1 GB

128 MB — 2 GB

256 MB — 2 GB

256 MB — 2 GB

128 MB — 4 GB

Максимальный объем встроеннных дисков

4.2 GB

50.4 GB

Hot plug

spanname="8G">8.4 GB

84 GB

Hot plug

   

Максимальный объем внешних дисков

spanname="50G">504 G

spanname="1T">>1 TB

6 TB

     

Слоты ввода / вывода

3 SBus

2 SBus

spanname="1Upa">

4 SBus

1 UPA

10 PCI Bus

   

Производительность OLTP

1.0

1.0

2.16

2.81

3.63

6.88

SPECrate_int95

SPECrate_fp95

50

82

57

84

111

151

145

188

219

254

431

514

Отличительной чертой рассматриваемых серверов является ориентация на достижение оптимального соотношения производительность/стоимость. При рассмотрении UPA уже упоминалось, что эта архитектура разрабатывалась в расчете на небольшие SMP-системы с числом процессоров до четырех. Серверы Ultra Enterprise 1, 2, 150 и 450 относятся именно к такой категории.

Чтобы создать высокопроизводительные и, вместе с тем, экономичные серверы, разработчики использовали уже апробированные решения, позволяющие снизить стоимость компьютеров.

Прежде всего это конструктивное исполнение по принципу единой материнской платы, имеющей слоты расширения с интерфейсами UPA, Sbus или PCI. Наращивание системы или ее переконфигурирование осуществляется при помощи сменных модулей, которые могут содержать устройства ввода-вывода, микропроцессоры или банки памяти. Такая компоновка знакома всем, кто хоть раз заглядывал внутрь персонального компьютера. Серверы двух других групп имеют более сложные конструктивы с пассивными или активными объединительными платами.

Другое решение, повлиявшее на стоимость, состоит в ограничении числа процессорных модулей (не более четырех, причем четыре модуля можно устанавливать только в самой старшей модели группы — Ultra Enterprise 450, появившейся относительно недавно). Прежде всего это обусловлено ограничением самой архитектуры UPA, и, уже во вторую очередь, небольшими размерами материнской платы. Таким образом, рассматриваемые системы используют UPA в ее "крейсерском" режиме. Кроме того, ограничение количества процессоров позволяет упростить и, соответственно, удешевить логику управления их работой.

Хотелось бы отметить также следующие особенности серверов с одноуровневой UPA-архитектурой:

Возвращаясь к теме стоимости, необходимо отметить, что практика лишний раз подтверждает старую истину: "копейка рубль бережет". Основная экономия набирается из мелочей (унификация компонент, интеграция функциональных блоков, использование широко распространенных стандартов и т.п.), на фоне которых дороговизна микропроцессоров оказывается незаметной. Поэтому в серверах процессоры — это "священная корова", на которой не экономят.

Особенности серверов Ultra Enterprise 1&2

Одной из целей компании Sun Microsystems является создание линии компьютеров, которые позволяли бы реализовывать однородные вычислительные структуры (закрывали потребности в вычислительной технике) организаций любого масштаба, от небольшой фирмы до крупной корпорации. Рассматриваемые ниже серверы Ultra Enterprise 1 и 2 являются младшими представителями семейства Enterprise и, как все компьютеры начального уровня, характеризуются невысокой ценой и достаточно простой архитектурой (см. Рис. 2 ).

Рисунок 2. Архитектура серверов Ultra Enterprise 1 и 2.

Ultra Enterprise 1 предназначается для работы в качестве вычислительного сервера небольших рабочих групп, либо сервера в локальной сети персональных компьютеров с числом пользователей до 100. Сервер имеет один процессор и минимальный набор внешних интерфейсов, в который входят 10Base-T Ethernet, Narrow SCSI (10 Мб/с) и стандартные интерфейсы для подключения принтера, клавиатуры и т.п. Дальнейшее наращивание ресурсов или изменение конфигурации осуществляется за счет трех дополнительных слотов Sbus, которые пользователь может задействовать под модули устройств ввода-вывода (например, дополнительный Fast Wide SCSI для подключения внешнего дискового массива) или графики.

Ultra Enterprise 2 отличается большими возможностями по наращиванию ресурсов и большей производительностью. Прежде всего имеется в виду поддержка многопроцессорности. Хотя в данном случае это звучит слишком громко (сервер имеет всего два процессорных модуля), дело не в количестве, а в принципе. До появления модели 450 рассматриваемый сервер являлся самым мощным в категории компьютеров с одноуровневой архитектурой UPA.

Наличие второго процессорного модуля, помимо увеличения производительности, влечет за собой и более высокие требования к параметрам внешних интерфейсов. Для того, чтобы система была более сбалансированной, базовая конфигурация содержит Fast Ethernet (10/100 Мбит/с) и Fast Wide SCSI (20 Мб/с), а число дополнительных слотов увеличено с трех до пяти, причем один из них — UPA-слот. Кроме того, в два раза увеличена разрядность шины данных банков памяти. Эти, казалось бы совсем не революционные изменения превращают Ultra Enterprise 2 в достаточно привлекательную платформу для реализации высокопроизводительных вычислительных или файловых серверов.

Рассматриваемые модели серверов предназначены для использования в локальных сетях персональных компьютеров, как правило, работающих под управлением различных вариантов ОС Windows. Чтобы обеспечить нормальную работу таких разнородных конфигурацией, компанией Sun Microsystems предлагается набор программных продуктов, таких как Solstice PC-Networking, Solstice LM Manager и некоторых других.

Что касается элементов технологии SunTrust, то в данных серверах из аппаратурных средств реализованы лишь дополнительные коды контроля, коррекции и четности на основных шинах и датчики перегрева, управляющие скоростью вращения вентиляторов, а из программных средств — программа диагностики и тестирования SunVTS и обширный начальный тест (POST — Power-On Self-Test).

Особенности серверов Ultra Enterprise 150

Данная модель по своей архитектуре (см. Рис. 3 ) и основным характеристикам схожа с Ultra Enterprise 1 с той лишь разницей, что ориентирована на применение в качестве файлового сервера. Это выражается в наличии встроенного в корпус дискового массива на 12 позиций. Если в уже рассмотренных моделях увеличение объема дисковой памяти производилось за счет дополнительных Sbus-слотов и использования внешних накопителей, то здесь такой необходимости нет (двенадцати дисков должно хватить). Соответственно, число слотов расширения уменьшено до двух.

Рисунок 3. Архитектура сервера Ultra Enterprise 150.

Наличие большого объема дисковой памяти у файлового сервера подразумевает частое обращение к нему и, как следствие, требование высокой пропускной способности внешних каналов, связывающих сервер с остальными устройствами локальной сети. Поэтому в базовой конфигурации для подключения к сети используется Fast Ethernet (10/100 Мбит/с).

Остановимся подробнее на некоторых новых, по сравнению с предыдущими моделями, элементах обеспечения целостности данных и надежности работы, связанных с наличием дискового массива RAID (Redundant Array of Independent/Inexpensive Disks/Drives. В литературе встречаются разные варианты расшифровки, однако изначально речь шла именно об избыточных массивах недорогих дисков). Имеются в виду:

Термины "горячее" включение и "горячая" замена (hot plug и hot swap) означают возможность включения или замены тех или иных компонентов компьютера без остановки его работы. Раньше такими качествами обладали только отказоустойчивые системы, однако, сейчас они получают все более широкое распространение и в обычной вычислительной технике, включая ПК. Данные функции подразумевают наличие в системе аппаратно-программных средств поддержки. К ним относится программно управляемое включение питания сменных компонент, наличие географической ("по месту") адресации компонент, возможность динамической переконфигурации системы без ее перезапуска и т.д.

Дисковые массивы, которыми комплектуются серверы Ultra Enterprise 150, поддерживают уровни RAID 0, 1 и 5.

Особенности серверов Ultra Enterprise 450

Ultra Enterprise 450 среди остальных моделей стоит особняком. Возможно, это связано с тем, что данный сервер появился относительно недавно, и при его разработке был учтен опыт эксплуатации трех других моделей. Во всяком случае, количество внесенных изменений достаточно велико. Наиболее важными представляются следующие особенности:

Похоже, разработчики преследовали цель создать универсальную высокопроизводительную систему с широкими возможностями наращивания ресурсов, используя для этого стандартные модули.

Рассмотрим перечисленные особенности подробнее.

Появление 4-процессорной версии недорогого сервера, по-видимому, связано с использованием интерфейса PCI, который позволил удержать стоимость системы на приемлемом уровне. С другой стороны, возможность наращивания вычислительной мощности всегда выглядит привлекательно для пользователей. С точки зрения архитектуры добавление еще двух процессорных модулей не является принципиальным. Для этого достаточно посмотреть на структурную схему (см. Рис. 4 ). Она мало чем отличается от рассмотренных выше. Кроме того, обратим внимание на то, что как и в модели Ultra Enterprise 2, на один UPA-порт приходится по два микропроцессора (об этом уже говорилось в разделе "Структура межсоединений UPA").

Рисунок 4. Архитектура серверов Ultra Enterprise 450.

Дисковый массив в Ultra Enterprise 450 построен по той же схеме, что и в Ultra Enterprise 150. Отличия состоят в числе дисков (20 против 12), их организации (в модели 450 доступ ко всем дискам осуществляется через три контроллера SCSI, а в модели 150 — через один) и пропускной способности каналов (40 Мб/с у модели 450 против 20 Мб/с у модели 150). Из 20 дисков четыре являются системными и управляются контроллером, расположенным на материнской плате. Доступ к остальным дискам осуществляется через отдельные модули контроллеров, устанавливаемые в слоты PCI.

Сервер имеет 10 дополнительных PCI-слотов. Все они, за исключением одного, могут поддерживать 64-разрядный режим. Семь слотов рассчитаны только на 33 МГц-версию стандарта PCI, оставшиеся три поддерживают обе версии — 33 МГц и 66 МГц.

Из нововведений следует отметить также резервированную систему питания. Суть ее состоит в том, что источники питания, как и дисковая система, построены на основе сменных модулей, количество которых соответствует потребностям системы в ее максимальной конфигурации плюс один. То есть в случае выхода из строя одного модуля источника питания его функции возьмет на себя резервный модуль. При этом исправность этих модулей отслеживается программно, и в случае какого-либо сбоя выдается соответствующее сообщение. Замена модулей источников питания производится при работающем сервере.

Дальнейшее наращивание мощности серверов в рамках конструктива одной материнской платы представляется нецелесообразным как с точки зрения архитектуры, так и с точки зрения стоимости (экономичности) изделия. Поэтому более мощные модели семейства Ultra Enterprise построены на основе модульной структуры. Об этой серии машин пойдет речь в следующем разделе.

Семейство серверов Ultra Enterprise X000

Общая характеристика группы

Данная группа серверов с точки зрения архитектуры не столь разнообразна, как младшие модели или система Ultra Enterprise 10000, рассмотрение которой еще предстоит. По сути все серверы серии Ultra Enterprise X000, вне зависимости от того, в какую категорию они попадают по классификации компании Sun (серверы больших рабочих групп, серверы уровня отдела или корпоративные), представляют вариации на тему одного и того же компьютера. Различия состоят лишь в разной конфигурации и типе корпуса. Поэтому в данном разделе будет дано описание общей архитектуры этих серверов, а не отдельных моделей, как это делалось раньше.

Выше архитектура серверов данной серии была определена как двухуровневая комбинированная. Это означает, что на уровне системных плат используется архитектура UPA, а взаимодействие и обмен данными между платами осуществляется по общей шине с конвейерной организацией передач, называемой Gigaplane. Структурная схема серверов Ultra Enterprise X000 приведена на Рис. 5 .

Рисунок 5. Структурная схема серверов Ultra Enterprise X000.

Gigaplane представляет собой системную шину, по которой осуществляется обмен данными между всеми платами в системе. Эта шина является синхронной (частота синхронизации — 83.3 Мгц) и имеет разрядность 256 бит. Для того, чтобы обеспечить необходимую пропускную способность, Gigaplane имеет вдвое большую разрядность по сравнению с UPA-шинами данных на системных платах. Передача производится пакетами фиксированного размера (64 байта). Шина имеет раздельные линии для передачи адреса, данных и сигналов управления, что позволяет существенно поднять ее пропускную способность. Согласно утверждениям компании, эффективность шины составляет 95% и ее реальная пропускная способность достигает 2.5 Гб/с. Физическая реализация Gigaplane представляет собой объединительную плату с односторонним или двусторонним расположением разъемов (последнее делается для уменьшения длины линий и зависит от максимального числа устанавливаемых плат).

От младших моделей серия Ultra Enterprise X000 отличается более высокой степенью унификации компонент. Во-первых, число разновидностей системных плат сведено к минимуму. Существует всего три их типа:

Минимальная конфигурация системы должна содержать по одной плате каждого типа. Все платы, за исключением сервисной, являются взаимозаменяемыми и могут устанавливаться в любую позицию на объединительной плате.

Архитектура системных плат

В данном разделе мы рассмотрим два типа плат:

Архитектура плат процессора/памяти очень похожа на архитектуру серверов Ultra Enterprise 2 (см. Рис. 6 ) с той лишь разницей, что рассматриваемые платы не имеют такой развитой интерфейсной части. Два процессорных модуля через контроллеры адреса и данных, составляющих основу UPA-архитектуры платы, могут обращаться к двум банкам памяти общим объемом до 2 Гб. Доступ процессоров к интерфейсу Gigaplane и далее на саму шину также осуществляется через UPA-коммутатор.

Рисунок 6. Архитектура плат процессора/памяти.

В серверах серии X000 используется три модификации плат ввода-вывода. Первая содержит интерфейс Gigaplane и три слота Sbus (см. Рис. 7 ), из которых два расположены на одной шине Sbus, и один — на второй шине. Помимо данных слотов, на плате имеются два интерфейса Fiber Channel и интерфейсы Ethernet и SCSI. Вторая модификация аналогична первой с той лишь разницей, что вместо третьего слота Sbus располагается UPA-слот, который используется для установки высокопроизводительных графических модулей Creator или Creator 3D. И, наконец, третья модификация (см. Рис. 8 ) содержит в качестве основной шины модулей устройств ввода-вывода шину PCI, которая рассматривается компанией как перспектива на ближайшее будущее.

Рисунок 7. Платы ввода-вывода со слотами Sbus.

Рисунок 8. Платы ввода-вывода с шиной PCI.

Особенности различных моделей серии Ultra Enterprise X000

Данная серия состоит из 4 моделей Ultra Enterprise: 3000, 4000, 5000 и 6000 (см. Таб. 2 ). Основное их отличие состоит в максимальном числе устанавливаемых плат, объеме встроенных дисковых массивов и, как следствие, разных типах корпуса. Ниже приведены краткие характеристики каждой модели.

Таблица 2. Основные характеристики серверов с двухуровневой архитектурой.

_

spanname="model">Модель

               

Характеристики

spanname="ult3">Ultra Enterprise 3000

spanname="ult4">Ultra Enterprise 4000

spanname="ult5">Ultra Enterprise 5000

spanname="ult6">Ultra Enterprise 6000

Ultra Enterprise 10000

       

_

1 CPU

6 CPU

6 CPU

12 CPU

6 CPU

12 CPU

12 CPU

24 CPU

64 CPU

Тип процессора

spanname="sparc">UltraSPARC I or UltraSPARC II

UltraSPARC II

             

Тактовая частота

spanname="frec">167 MHz or 250 MHz

250 MHz

             

Число ЦПУ

spanname="v16">1-6

spanname="a14">1-14

spanname="b14">1-14

spanname="v130">1-30

1-64

       

Вторичный кэш

spanname="mbs">1 MB or 4 MB

               

Максимальный объем памяти

spanname="g6">6 GB

spanname="ag14">14 GB

spanname="bg14">14 GB

spanname="g30">30 GB

64 GB

       

Максимальный объем дисков

spanname="t2">>2 TB

spanname="t4">>4 TB

spanname="t6">>6 TB

spanname="t10">>10 TB

>20 TB

       

Слоты ввода / вывода (SBus/PCI)

spanname="v36">3-3 / 2-6

spanname="a312">3-21 / 2-12

spanname="b312">3-21 / 2-12

spanname="c312">3-45 / 2-12

1-64

       

Производительность OLTP

1.56

8.06

8.06

13.5

8.06

13.5

13.5

19.5

SPECint_rate95

SPECfp_rate95

93.9

135

556

745

556

745

1,096

1,436

556

745

1,096

1,436

1,096

1,436

2,171

2,340

Особенности реализации элементов технологии SunTrust

С точки зрения аппаратуры все сказанное выше в отношении системы Ultra Enterprise 450 остается верным и для данной серии серверов. Новшеством является возможность "горячей" замены системных плат. Другая новинка, непосредственно связанная с первой, это системный монитор SyMON.

Чем сложнее система, тем острее потребность в средствах слежения и управления ею. К таким средствам относится системный монитор SyMON. Он предназначен для мониторинга событий, происходящих в системе, оценки производительности, предсказания вероятных сбоев аппаратуры, а также для планирования загрузки системы. Монитор может помочь администратору системы в оценке степени ее загруженности и обнаружении "узких" мест, где теряется производительность, что позволяет правильно подобрать конфигурацию.

Монитор SyMON состоит из трех подсистем со следующими функциями:

Одной из основных функций монитора является предсказание аппаратурных сбоев.

Техника всегда сбоит, и причин тому может быть множество. Иногда все проходит безболезненно, а иногда сбой приводит к тяжелым последствиям. Монитор SyMON позволяет свести неприятные неожиданности к минимуму. Любое нарушение корректной работы того или иного узла, доступного для системного монитора, фиксируется им. Далее полученные данные анализируются администратором. Если выясняется, что какое-то устройство слишком часто появляется в "черном списке", лучше заменить его, пока не поздно. Чтобы свести потери времени к минимуму, а точнее, вообще не терять его, в серверах данной серии предусмотрена возможность "горячей" замены модулей. Эта возможность впервые появилась именно в серии серверов Ultra Enterprise X000.

Сервер Ultra Enterprise 10000

Особенности архитектуры

Модель 10000 является старшим и наиболее совершенным в техническом отношении представителем семейства Ultra Enterprise. В ней реализованы самые последние достижения и разработки компании Sun Microsystems, большинство из которых полностью отсутствует в младших моделях. К числу принципиальных инноваций относятся:

Сервер Ultra Enterprise 10000 позволяет устанавливать до 16 системных плат и достигать пиковой производительности 25 Gflops (подробные технические характеристики сервера приведены в Таб. 2 ). Обеспечение нормальной работы такого количества процессоров представляет собой отдельную техническую проблему. В данном случае она решается при помощи использования двухуровневой архитектуры UPA, в которой первый (нижний) уровень составляет архитектура системных плат, а второй (верхний) — архитектура межплатных соединений.

Структура сервера выглядит довольно просто. Основу ее составляет системный пакетный коммутатор Gigaplane-XB, обеспечивающий коммутацию всех шин адреса и данных. К нему подключаются системные платы и плата управления, содержащая систему диагностики JTAG, генераторы синхросигналов и интерфейсы (Ethernet и последовательный) с удаленными устройствами. По существу в сервере используются платы всего одного типа (плата управления в расчет не берется, так как является вспомогательной), что имеет определенные преимущества. Во-первых, это снижает стоимость вычислительной системы и повышает удобство ее обслуживания и эксплуатации (тем более, что устанавливаемые на плату модули унифицированы с другими серверами семейства Ultra Enterprise). Во-вторых, за счет минимизации объема межплатных передач, связанных с обменом данными между устройствами ввода-вывода и памятью, снижается поток данных, передаваемых по Gigaplane-XB, то есть оптимизируется работа сервера и повышается его эффективность.

Архитектура системных плат

Системная плата сервера Ultra Enterprise 10000 представляет собой универсальное высокопроизводительное устройство, разработанное с использованием архитектуры UPA. Плата содержит следующие функциональные модули (см. Рис. 9 ):

Рисунок 9. Архитектура системных плат сервера Ultra Enterprise 10000.

Назначение большинства перечисленных устройств не требует пояснений, однако функции некоторых из них необходимо прокомментировать. Это относится к буферам данных — узлам, которые в "чистом" виде не встречались до этого момента в других серверах, и контроллерам когерентных интерфейсов.

Буферы данных (XDB) обеспечивают бесконфликтное разрешение ситуаций, когда происходит одновременный доступ к одному и тому же порту со стороны нескольких устройств. В этом случае допускается проведение передачи только одного пакета, а остальные данные сохраняются в буферах передающих портов до завершения обмена. Благодаря фиксированной длине пакета (64 байта) максимальное время задержки до завершения передачи никогда не превышает постоянного значения (500 нс), а сама процедура разведения потоков данных легко прогнозируется.

Контроллеры когерентных интерфейсов шин адреса выполняют те же функции, что и аналогичные устройства в младших моделях серверов — обеспечивают проведение циклов передачи адреса и следят за когерентностью кэш-памяти системных модулей.

В целом архитектура платы очень напоминает архитектуру сервера Ultra Enterprise 450 с той лишь разницей, что в данном случае коммутаторы адреса и данных имеют еще по одному дополнительному порту, который обеспечивает подключение платы к глобальному коммутатору второго уровня, а число коммутаторов адреса увеличено до четырех. Соответственно, и производительность этой платы мало отличается от производительности упомянутого сервера. То есть каждая системная плата "десятитысячника" и по вычислительной мощности, и по интерфейсам представляет собой полноценный высокопроизводительный сервер, что и используется технологией "сервер в сервере".

Своеобразное расположение функциональных узлов на структурной схеме, непохожее на аналогичные схемы для плат "тысячников", сделано специально для того, чтобы лучше отобразить особенности организации связей как на отдельной плате, так и в системе в целом.

Еще одной особенностью архитектуры платы, которую следует подчеркнуть особо, является наличие шины, связывающей коммутаторы адреса и данных. Это сделано для повышения живучести системы, о чем будет сказано при рассмотрении функций SunTrust.

Архитектура межплатных соединений. Коммутатор Gigaplane-XB

Второй уровень архитектуры сервера Ultra Enterprise 10000 составляют межплатные соединения, физической реализацией которых является глобальный коммутатор Gigaplane-XB.

Коммутатор Gigaplane-XB предназначен для обеспечения соответствия пропускной способности каналов обмена данными в системе ее высокой производительности. Чтобы выполнить это требование, в основу данного коммутатора была положена архитектура UPA. Благодаря такому решению удалось достичь интегральной пропускной способности 12.8 Гб/с.

К числу особенностей реализации Gigaplane-XB относятся следующие:

Наибольший интерес из перечисленных особенностей представляют первые три. Мы рассмотрим их в совокупности.

Организация шин адреса и данных в коммутаторе Gigaplane-XB

Сначала — несколько терминологических замечаний. Gigaplane-XB является коммутатором, который состоит из двух логических частей:

В фирменной документации применительно к коммутатору адреса используется термин "шина", поскольку в нем, в отличие от коммутатора данных, адрес передается сразу всем устройствам, как в общих шинах, то есть реализуется принцип передачи "от одного всем". Такая организация адресных шин объясняется следующими причинами. Принцип передачи адреса по типу общей шины хорош тем, что он позволяет осуществлять мониторинг адресов для обеспечения когерентности кэш-памяти, однако общая шина имеет ограниченное быстродействие, которое снижается с увеличением длины шины и/или числа нагрузок на ней. Принцип коммутации информации обеспечивает высокое быстродействие, но не допускает мониторинга. В данном случае предпринята попытка объединить достоинства двух этих методов. И, похоже, она удалась.

Внутренняя организация Gigaplane-XB интересна тем, что она содержит четыре адресных коммутатора, или, следуя фирменной терминологии, шины (см. Рис. 10 ). Число их соответствует числу модулей памяти на системных платах, и каждый модуль обычно выводится (коммутируется) на отдельную шину адреса. Таким образом может быть осуществлена одновременная адресация (но не передача данных!) ко всем модулям памяти платы. Большое число шин адреса необходимо для обеспечения высокой пропускной способности коммутатора данных. При меньшем их количестве коммутатор данных будет простаивать.

Рисунок 10. Структура шин глобального коммутатора Gigaplane-XB.

Gigaplane-XB реализован в виде двухплатной конструкции, где каждая плата содержит коммутатор данных половинной разрядности и две шины адреса. Благодаря подобной организации сервер остается работоспособным даже в случае выхода из строя одной такой платы. Правда, для этого потребуется перезапуск компьютера. При выходе из строя любого количества шин адреса работоспособность сервера также сохраняется, причем в случае, когда отказали все адресные шины, предусмотрен протокол передачи адресов по шинам данных, хотя о высокой производительности в такой ситуации придется забыть.

Сервер в сервере. Технология DSD (Dynamic System Domain)

Коммутатор Gigaplane-XB предоставляет пользователям широкие возможности, недоступные ранее. Об одной из таких возможностей пойдет речь в данном разделе.

DSD является одной из трех ключевых технологий, на которых основывается архитектура сервера Ultra Enterprise 10000. Она позволяет, опираясь на предоставляемые двухуровневой UPA-архитектурой возможности, выделять внутри сервера самостоятельные вычислительные структуры — домены. В качестве доменов может выступать от одной до нескольких системных плат, тем более, что каждая системная плата представляет собой высокопроизводительный компьютер, имеющий все необходимое для самостоятельной работы. Соответственно, максимальное число доменов в системе не может превышать шестнадцати. Домен является полноценным SMP-компьютером, который помимо ресурсов, расположенных на системных платах, располагает собственным системным диском, сетью и каналами обмена информацией с соседними доменами.

Таким образом, технология DSD позволяет рассматривать сервер как вычислительный комплекс, состоящий из большого количества (до шестнадцати) независимых многопроцессорных SMP-систем, связанных между собою высокоскоростными каналами обмена данными, причем конфигурация этих связей может определяться пользователем. Подобное подразделение большой системы на несколько меньших раньше использовалось только в больших компьютерах класса мэйнфреймов. Здесь же такая возможность является естественным следствием архитектуры сервера.

Считается, что технология "сервер в сервере" имеет следующие три неоспоримых преимущества перед аналогичными по мощности и конфигурации системами, состоящими из нескольких связанных между собой серверов:

Существует множество способов использования технологии DSD. Здесь и безопасное тестирование нового ПО, и использование системы в качестве корпоративного сервера с гибким перераспределением вычислительных ресурсов между различными подразделениями в зависимости от производственной необходимости, и многое другое.

Из прочих особенностей системы выделения логических серверов в Ultra Enterprise 10000 стоит отметить следующие:

Для задач, связанных с созданием, переконфигурированием и уничтожением доменов, равно как и для задач администрирования сервера вообще используется Системный Сервисный Процессор (SSP), представляющий собой рабочую станцию с ОС Solaris, на которой установлено специальное программное обеспечение.

Очевидно, технология DSD напрямую связана с комплексом мер по обеспечению надежности сервера — Sun Trust.

Технология SunTrust

Выше, на примере серверов серии X000, был рассмотрен ряд свойств, обеспечивающих повышенную доступность систем. К ним относятся:

В "десятитысячнике" все эти свойства также присутствуют, поскольку методы обеспечения надежной работы системы учитывались еще на этапе выдвижения требований.

Так, для обеспечения надежности были выдвинуты требования разработки такой системы, в которой вероятность возникновения ошибок минимальна. При этом должны быть предусмотрены механизмы аппаратурного выявления и коррекции ошибок.

Готовность сервера должна обеспечиваться за счет механизмов (программных) обнаружения и изоляции ошибок, механизмов восстановления системы после сбоев и поддержки резервируемости.

Высокий уровень обслуживаемости должен обеспечиваться за счет простоты процедур обслуживания и облегчения доступа к заменяемым ресурсам.

Все эти задачи были успешно решены.

В начале статьи (в разделе "Другие фирменные технологии") приводился перечень компонент, составляющих технологию SunTrust. Напомним его:

Рассмотрим перечисленные компоненты более подробно.

Резервируемость системы на уровне основных компонент

Сервер может быть сконфигурирован таким образом, что все его основные компоненты и каналы обмена данными будут зарезервированы. Это касается системных плат и плат управления, плат глобального коммутатора, внешней памяти, контроллеров внешних каналов, источников питания, а также Системного Сервисного Процессора (SSP). Более того, если еще раз посмотреть на архитектуру системных модулей, то можно обратить внимание на то, что они содержат по нескольку однотипных модулей процессоров, памяти и устройств ввода-вывода, что также может рассматриваться и использоваться как резерв.

Очень большое внимание в сервере Ultra Enterprise 10000 уделяется системам питания и охлаждения. Если важность нормального питания не вызывает сомнений, то по поводу системы охлаждения следует дать некоторые пояснения.

Работа электронных схем сильно зависит от температуры. Ее изменение влияет на временные характеристики микросхем и устойчивость их функционирования. Все фирмы-изготовители полупроводниковых изделий устанавливают для них рабочий диапазон температур (обычно это 0-70 o C), в пределах которого гарантируется нормальное функционирование. Выход за пределы указанного диапазона может привести к отказу компонент. Сами микросхемы выделяют тепло, количество которого зависит от рабочей частоты и при наличии большого числа электронных компонент в системе может достигать сотен ватт.

Если не уделить должного внимания системе охлаждения, стоимость которой на фоне стоимости всего сервера пренебрежимо мала, то компьютер сначала какое-то время будет "жутко греть плохо приспособленное для этого помещение", а потом сгорит.

В силу перечисленных причин обе системы (питания и охлаждения) строятся по прирнципам модульности и избыточности, чтобы в случае неисправности можно было легко заменить отдельные компоненты, и при этом нагрузка на оставшиеся модули не превышала допустимой. Контроль за работой этих систем осуществляется при помощи датчиков.

Наличие альтернативных каналов доступа к основным ресурсам

Помимо особенностей конфигурации аппаратуры, когда резервируются все используемые компоненты, для реализации данной функции используется специальное программное обеспечение, которое позволяет оборудованию работать в режиме резервированния. В случае обнаружения сбоя ПО автоматически отключает неисправный канал и включает резервный.

Возможность логического разделения ресурсов сервера по аналогии с мэйнфреймами (DSD)

Основные достоинства данного технического решения уже были рассмотрены. С точки зрения обеспечения надежности следует подчеркнуть тот факт, что домены изолированы друг от друга и нарушение работы одного из них никак не сказывается на функционировании других.

Гарантированное восстановление системы после сбоев

Обычная процедура восстановления работоспособности системы или ее части (домена) после сбоя сводится к переконфигурированию. Вышедшие из строя ресурсы изолируются и исключаются из числа используемых компонент, после чего система или домен перезапускается и продолжает работу без них. Это свойство сервера называется автоматическим переконфигурированием системы (ASR - Automatic System Reconfiguration). При переконфигурировании производится глубокое тестирование аппаратуры, для чего используется тест POST, который на нижнем уровне поддерживается системой тестирования микросхем JTAG.

Самым тяжелым для Ultra Enterprise 10000 случаем является возникновение какой-либо неисправности в плате управления. В этой ситуации придется перезапускать весь сервер.

Обеспечение целостности передаваемых данных и адресов за счет использования ECC-кодов

Особенностью сервера Ultra Enterprise 10000 является то, что ECC-коды используются в нем для обеспечения целостности не только передаваемых данных, но и адреса. В отличие от контроля четности, ECC-коды позволяют корректировать однобитные ошибки и обнаруживать двухбитные.

Интеллектуальная система мониторинга с выдачей соответствующих сообщений

Для мониторинга работы сервера используется два программных пакета:

Функции системного монитора SyMON были описаны в разделе, посвященном "тысячникам".

Hostview представляет собой средство визуализации состояния сервера, помогающее системному администратору осуществлять динамическое переконфигурирование системы. Пакет позволяет отображать следующие параметры сервера:

Кроме того, Hostview предоставляет системному администратору возможность управлять всеми этими ресурсами: включать и выключать модули источников питания и вентиляторные панели, создавать, модифицировать и уничтожать домены, запускать диагностику и многое другое.

Все сервисное программное обеспечение располагается на сервисном процессоре SSP.

Возможность обслуживания системы без остановки ее работы

Данное качество во многом определяется использованием в системе технологии DSD и поддержкой динамического переконфигурирования, а также особенностями конструктивного исполнения, упрощающими доступ к сменным компонентам и, как следствие, сокращающими время замены. Кроме того, как и в серверах серии X000, здесь возможна "горячая" замена практически всех основных компонент.

Поддержка развитой системы диагностики

В Ultra Enterprise 10000 используется та же система диагностики, что и в серверах серии X000 — пакет SunVTS (Sun Validation Test Suite).

Весь этот комплекс мер, называемый SunTrust, обеспечивает серверу Ultra Enterprise 10000 исключительно высокий уровень доступности.

Серверы серии Ultra HPC

Семейство серверов Ultra Enterprise закрывает очень широкий спектр применений, требующих от вычислительной системы производительности вплоть до 25 GFLOPS. Однако в ряде случаев (и нельзя сказать, что таких случаев мало) требуется вычислительная мощность, существенно превышающая указанные цифры. В таких ситуациях у пользователей до последнего времени был, как правило, небогатый выбор, ввиду немногочисленности такого рода систем. Обычно, компьютеры с уровнем производительности порядка сотен MFLOPS имеют специфическую архитектуру и собственные операционные системы. Поэтому перед организацией, у которой возникла потребность в такой технике, встают нелегкие задачи. Во-первых, требуется изыскать немалые средства (системы такого уровня производительности стоят не один миллион долларов), во-вторых, приходится переносить используемые приложения на новое "железо".

Еще один пример. В отделе, занимающемся разработкой мощного микропроцессора, имеется несколько серверов рабочих групп семейства Ultra Enterprise, которые используются для выполнения отдельных частей проекта. Время от времени возникает потребность в интенсивных вычислениях (связанных, например, с моделированием работы кристалла). Выполнение этой работы на одном сервере займет большое количество времени, и хотелось бы его сократить. Покупка более мощного компьютера экономически невыгодна. Как поступить в такой ситуации?

В качестве решения подобных проблем компания Sun Microsystems предлагает семейство серверов Ultra HPC (сокращение от High Performance Computing - высокопроизводительные вычисления). Это те же серверы семейства Enterprise (рассмотренные выше), оборудованные новым высокопроизводительным (до 200 Мб/с) интерфейсом Sun Cluster Channel на базе стандарта SCI (Scalable Coherent Interface), позволяющим связывать серверы между собой. При этом топология соединений может быть произвольной. Единственное существующее ограничение — число объединяемых серверов не должно превышать шестнадцати.

Использование такой технологии для организаций и предприятий, чей машинный парк основывается на компьютерах Sun, имеет следующие неоспоримые преимущества:

Систему HPC можно построить на основе любых серверов семейства Enterprise за исключением однопроцессорных моделей (Ultra Enterprise 1 и 150). Для этого потребуются только расходы на приобретение новых интерфейсных плат и прокладку оптоволокна.

Обратим внимание на то, что данная технология не является кластерной, хотя и очень на нее похожа. Кластерам будет посвящен следующий раздел. Системы Ultra HPC позволяют несколько расширить возможности семейства Enterprise, вводя как бы третий уровень архитектуры — уровень межсерверных связей.

Кластеры. Серия Ultra Enterprise Cluster HA

В настоящее время, когда все большее внимание уделяется обеспечению высокой доступности информационных систем и целостности обрабатываемых данных, кластерные технологии являются, пожалуй, наиболее простым и относительно недорогим способом достижения требуемых характеристик. Как показывает практика, кластеры гарантируют уровень доступности, достаточный для решения таких задач, как работа с базами данных, поддержка большинства банковских приложений и т.п.

С точки зрения архитектуры, кластеры представляют собой вычислительные комплексы, состоящие из нескольких (чаще всего - двух) компьютеров, имеющих общие дисковые массивы и сеть. Все соединения и ресурсы в кластере резервируются, то есть всегда предусматривается альтернативный путь для обращения к тому или иному узлу, если речь идет о канале связи, или имеется дублирующее устройство, способное по ходу работы заменить выбывшее из строя. Это вызвано требованием отсутствия в системе одиночных точек отказа, то есть таких ресурсов или компонент, отказ которых вывел бы всю систему из работоспособного состояния. Однако наличие перечисленных аппаратурных особенностей еще не дает основания называть вычислительную систему кластером, если она не имеет специального программного обеспечения, позволяющего узлам кластера контролировать работу друг друга, а также обнаруживать сбои и неисправности (как аппаратурные, так и программные) и восстанавливать систему после таких сбоев.

Компания Sun Microsystems имеет достаточный опыт создания кластерных систем. Наибольшую известность среди них получили конфигурации, созданные на базе серверов SPARCserver. С появлением нового поколения серверов естественно было ожидать их использования для создания новых кластерных конфигураций.

Как и в случае с серией HPC, в основу кластеров Ultra Enterprise Cluster HA (HA — High Availability, высокая доступность) положен модельный ряд серверов Ultra Enterprise, за исключением однопроцессорных моделей и "десятитысячника". Все кластеры в качестве общего ресурса используют дисковые массивы SPARCstorage Array.

На Рис. 12 приведен пример двухузловой кластерной конфигурации Ultra Enterprise Cluster HA.

Рисунок 12. Пример кластерной конфигурации Ultra Enterprise Cluster HA.

Для связи узлов кластера с дисковыми массивами используются оптические каналы Fiber Channel Interface (FCI) и Fiber Channel Arbitrated Loop (FC-AL), при этом для недорогих приложений оставлена возможность применения канала SCSI. Оптический интерфейс обеспечивает дополнительную надежность передачи информации, поскольку не подвержен электромагнитным наводкам и позволяет соединять устройства, расположенные на расстоянии до десяти километров друг от друга, без ухудшения параметров.

Локальные каналы (Private Links) представляют собой линии Ethernet (10 или 100 Мбит/с). Они предназначены для передачи информации между узлами, а также для обмена специальными сообщениями, называемыми "пульсом" (heartbeat), по которым узлы судят о работоспособности друг друга. Ввиду важности этой информации каналы дублированы.

Во избежание возникновения одиночных точек отказа доступ к другим устройствам вычислительной системы также осуществляется по дублированным каналам.

Особенности программного обеспечения кластеров

Как уже отмечалось, основу кластеров составляет именно программное обеспечение. В данном случае это два пакета:

Solstice Disk Suite представляет собой программное обеспечение, дополняющее работу высоконадежных дисковых массивов. Данная программа выполняет следующие функции:

Программа Solstice HA является основой всей кластерной технологии, поскольку обеспечивает высокую готовность системы. Она автоматически выявляет программные и аппаратурные неисправности, пытается, если это возможно, разрешить их и, если это не удается, запускает процесс восстановления на втором узле.

Основной особенностью данного пакета является наличие в нем набора специальных программ, называемых детекторами сбоев (fault probes). Они отслеживают и выявляют сбои в работе аппаратуры, сетевых устройствах, системном ПО и даже в определенных приложениях, включая NFS и программы управления базами данных. Информация о каких-либо некорректностях немедленно передается Solstice HA для принятия решения. Благодаря такой организации многие сбои ликвидируются на месте, без запуска процедуры восстановления.

Помимо этого, Solstice HA поддерживает разные режимы работы двухузловых кластеров: симметричный и асимметричный. В первом случае оба сервера занимаются обслуживанием пользователей и могут поддержать работу системы в случае сбоя любого из них. Во втором случае один из серверов постоянно находится в состоянии ожидания (режим горячей замены) и берет на себя работу только в случае сбоя основного узла.

Очень важной представляется поддержка программой Solstice HA узлов с разной конфигурацией. Это позволяет создавать кластеры на основе имеющегося оборудования, а также реализовывать экономичные несимметричные кластерные системы. Например, в случае выполнения какого-либо критичного приложения, можно использовать кластер, состоящий из двух разных серверов — мощного вычислительного и относительно слабого резервного. В случае сбоя в основном узле резервный не допустит прекращения выполнения задачи и позволит "продержаться" до устранения неисправности.

Уже упоминавшаяся возможность оптических интерфейсов поддерживать связь между достаточно удаленными устройствами (до 2 км) позволяет обеспечивать сохранность данных за счет территориального разнесения отдельных компонент кластера, узлов и/или дисковых массивов. Таким образом можно подстраховать систему на случай пожара, диверсии или аварии питания.

Наконец, Solstice HA предоставляет средство HA Toolkit, которое позволяет создавать приложения, участвующие в процедуре восстановления после сбоев.

В настоящее время имеющееся ПО поддерживает только двухузловые конфигурации. Что касается перспектив, то можно предсказать увеличение числа узлов в кластере до 4 — 8, а также переход к более высокопроизводительным каналам SPARC Cluster Channel, которые уже используются в серии Ultra HPC. Не исключена конвергенция этих серий.

Семейство рабочих станций Ultra

Рабочие UNIX-станции являются той областью рынка вычислительной техники, где позиции компании Sun Microsystems можно расценить как наиболее сильные. Однако, несмотря на это, конкуренция здесь достаточно серьезная, да и имена конкурентов говорят о многом: Digital, Hewlett Packard, Silicon Graphics и др. Вполне естественно, что наряду с развитием и продвижением новой линии серверов Ultra Enterprise и Ultra HPC, Sun продолжает уделять много внимания рабочим станциям. Таким образом реализуется концепция единой платформы для широкого спектра компьютерной техники, необходимой для предприятий любого масштаба (уровня).

Новое поколение рабочих станций Ultra состоит из четырех основных моделей:

Архитектура этих моделей здесь рассматриваться не будет, поскольку все они являются полными аналогами соответствующих серверов серии Ultra Enterprise (это относится к Ultra 1&2 и Ultra 4000) или их модификациями, как Ultra 30. Основные отличия заключаются в конфигурации компьютеров и типе корпуса. Лишь рабочая станция Ultra 30 несколько выделяется из общего ряда тем, что, по аналогии с сервером Ultra Enterprise 150, использует для установки дополнительных модулей слоты шины PCI вместо Sbus.

В силу приведенных причин в данном разделе основной акцент сделан на архитектуру графической подсистемы Creator, которая является ключевой для определения потребительских качеств рабочих станций и выгодно отличает их от других систем того же ценового диапазона.

Графическая подсистема Creator

В Разд. Архитектура семейства компьютеров Ultra , при рассмотрении ключевых технологий, позволивших создать новое поколение компьютеров Sun, выделялись UPA-архитектура, новые микропроцессоры и новая память для графических подсистем. В свою очередь, одной из основных особенностей архитектуры микропроцессоров является дополнительный набор команд для поддержки работы графики — VIS. Таким образом, из трех краеугольных камней семейства компьютеров Ultra, два так или иначе связаны с графическими функциями.

Графическая подсистема Creator задумывалась как высокопроизводительное устройство, предназначенное для выполнения широкого круга задач, начиная от простого отображения информации на экране монитора и кончая работой со сложными изображениями, требующей специальной аппаратурной поддержки. В качестве исходных требований фигурировали высокая производительность, дешевизна и универсальность.

Структурная схема графической подсистемы Creator приведена на Рис. 13 . Существует два варианта ее реализации: Creator и Creator 3D. Последний предназначен для работы с большими и сложными изображениями, нуждающимися в памяти значительного объема. Дополнительные компоненты, свойственные только подсистеме Creator 3D, выделены на рисунке темным тоном. С точки зрения внутренней архитектуры и алгоритма работы обе системы абсолютно одинаковы.

Рисунок 13. Структурная схема графической подсистемы Creator.

Архитектура графической подсистемы базируется на трех типах микросхем, которые были разработаны специально для нее. Это:

Видеопамять и RAMDAC создавались специалистами Sun в сотрудничестве с разработчиками фирмы Mitsubishi и BrookTree, соответственно, а контроллер FBC является оригинальной разработкой Sun.

На Рис. 14 приведена логическая структура графической подсистемы Creator. На нем хорошо видно, каким образом распределяются функции поддержки работы графики между контроллером FBC и видеопамятью. На долю последней приходится в основном работа с пикселами, а контроллер выполняет более сложные операции, связанные с геометрическими преобразованиями.

Рисунок 14. логическая структура графической подсистемы Creator.

Контроллер буфера кадра FBC

Контроллер FBC выполняет две основные функции:

FBC поддерживает выполнение таких функций 3D-графики, как вычисление и интерполяция границ 3D-объектов, работа с Z-буфером (удаление невидимых частей), затенение объектов, сглаживание линий (уменьшение лестничного эффекта) и т.п.

С точки зрения внутренней архитектуры контроллер подразделяется на две части:

В исполнительный конвейер данные загружаются в виде набора координат, их параметров и команд, а прямой порт используется для записи в видеопамять готового изображения в режиме прямого доступа.

Таким образом, контроллер позволяет существенно снизить нагрузку на процессор (процессоры) вычислительной системы, взяв часть функций нижнего уровня на себя, а также сократить объем данных, передаваемых в графическую систему.

Графическая память 3D-RAM

В настоящее время максимальный объем и минимальную стоимость имеют микросхемы динамической памяти (DRAM). При этом основным их недостатком является большое время доступа, который почти на порядок медленнее, чем для статической памяти (SRAM). Традиционная видеопамять (VRAM) представляет собой комбинацию DRAM и специального выходного буфера, имеющую два внешних порта: основной и дополнительный. Информация из основной памяти микросхемы копируется в буфер, откуда она последовательно, в порядке возрастания адресов, выдается наружу через дополнительный порт. Оба порта работают независимо друг от друга, что позволяет поднять эффективность работы памяти по сравнению с обычной DRAM в два раза.

Архитектура 3D-RAM (см. Рис. 15 ) в целом похожа на архитектуру VRAM. Основной объем памяти (4 банка) составляет память динамического типа. Имеется два независимых порта и выходные буферы. Однако в 3D-RAM появились принципиально новые функциональные блоки, отсутствующие во VRAM:

Рисунок 15. Внутренняя архитектура 3D-RAM.

Именно благодаря им достигается качественный рост производительности памяти.

Кэш-память позволяет существенно поднять пропускную способность основного интерфейса, приблизив ее по своим характеристикам к параметрам статической памяти (в режиме записи временные параметры полностью аналогичны параметрам SRAM, а в режиме чтения — всего в 2 раза хуже, то есть соответствуют временным параметрам страничного режима работы DRAM).

Арифметико-логическое устройство предназначено для ускорения работы Z-буфера, процедуры сглаживания и операций над отдельными пикселами. В обычных системах для этих целей используются циклы "чтения-модификации-записи", в которых процесс модификации осуществляется процессором. Использование АЛУ позволяет обойтись только циклами записи, которые, как уже подчеркивалось выше, выполняются очень быстро (как в SRAM).

В Таб. 3 приведены некоторые характеристики 3D-RAM.

Таблица 3. Характеристики 3D-RAM.

Функция

Описание

Производительность

Быстрая очистка (неограниченное число и размер окон)

Пиковая скорость с использованием дубированной страницы

Пиковая скорость с использованием блочной записи

Полный экран

Произвольное окно

1.6 Г пиксел/с

1.6 Г пиксел/с

45 мкс

<400 мкс

Вертикальный роллинг

Полный экран

3.2 мс

Перемещение блока

Скорость чтения: 2 такта (10-15 нс/такт)

200-132 М пиксел/с

nbsp

Скорость чтения: 1 такт (10-15 нс/такт)

400-264 М пиксел/с

Шрифты (10*14)

Худший случай

2-4 М символ/с

Векторы (10 пикселов)

3D-запись

3.5-7.5 М векторов/с

Полигоны

50-пиксельные треугольники

2-4 М треуг./сек

nbsp

100-пиксельные треугольники

1.5-1.8 М треуг./сек

Большое количество нововведений в графической памяти 3D-RAM, придающих новое качество данной компоненте графической подсистемы, особенно впечатляет на фоне многолетнего застоя в этой области.

Микросхема RAMDAC

Данное устройство, часто называемое также палитрой цветов, предназначено для преобразования кодов цветности в аналоговые сигналы для графического монитора. Само название данного типа микросхем (RAMDAC) говорит о том, что они состоят из двух основных частей: памяти с произвольным доступом (RAM) и цифро-аналогового преобразователя (DAC).

Принцип работы RAMDAC состоит в следующем. Внутренняя память микросхемы содержит три таблицы 8-разрядных кодов интенсивности трех цветов (красного, зеленого и синего) по 256 значений в каждой. Поступающие на вход RAMDAC данные из видеопамяти содержат номера кодов в каждой из таблиц. Выбранные значения интенсивности преобразуются соответствующими ЦАПами в аналоговые сигналы.

Помимо модифицируемых таблиц палитра содержит еще фиксированную память, так называемую Gamma ROM, такого же объема (3*256*8 бит).

Используемые в подсистеме Creator микросхемы RAMDAC адаптированы для работы с 3D-RAM и обеспечивают вывод изображений с глубиной пикселов 8 и 24 бита, поддерживают аппаратный курсор размером 64*64 пиксела и имеют встроенный синтезатор синхросигналов.

Преобразование входной информации в микросхеме может осуществляться несколькими способами:

Использование аппаратного курсора упрощает его вывод на экран монитора, поскольку отпадает необходимость в постоянной перерисовке курсора в видеопамяти. Матрица курсора прописывается один раз, и далее только задаются координаты.

Программируемый синтезатор синхросигналов упрощает аппаратную реализацию графической подсистемы и позволяет программно настраивать ее под конкретный монитор.

Используется в данном устройстве и такое традиционное решение, как поддержка наложенных изображений. Причем, в отличие от многих других систем, глубина пиксела для подобных изображений составляет 8 бит. Это позволяет выводить на экран одновременно изображения с глубиной пикселов 8 и 24 бита.

Другой любопытной особенностью микросхемы RAMDAC является поддержка стереоизображений. Правда, для реализации этой возможности требуется дополнительное внешнее оборудование.


Архитектура семейства компьютеров Ultra Содержание Заключение
Copyright ╘ 1993-2000, Jet Infosystems