[Blind-Unlimited] порадовать алексея
Тестирование сетевых карт Gigabit Ethernet | Тестирование | КомпьютерПресс 4'2002
Тестирование сетевых карт Gigabit Ethernet
Сергей Пахомов, Сергей Самохин
Введение
Методика тестирования
Результаты тестирования
Выбор редакции
3Com 3C996-T
Allied Telesyn AT-2970T
COMPEX FL1000T
D-Link DGE-550T
Intel PRO 1000T (PWLA8490T)
Intel PRO 1000XT (PWLA8490XT)
LinkPro FL-9100TX
SMC 9452TX
Surecom EP-320GTX
TRENDnet TEG-PCITX2
Набор микросхем National Semiconductor DP83820 и DP8386м
SMC 9462TX
Сетевой адаптер LG LNIC-1000
В тестовой лаборатории <КомпьютерПресс> проведено тестирование 10 гигабитных
сетевых адаптеров 1000Base-T на предмет выяснения их производительности. Тестировались:
3Com 3C996-T, Allied Telesyn AT-2970T, COMPEX FL-1000T, D-Link DGE-550T, Intel
PRO 1000T, Intel Pro 1000XT, LinkPro FL-9100TX, SMC 9452TX, Surecom EP-320GTX,
TRENDnet TEG-PCITX2.
Введение
июне 1998 года немногочисленные в то время производители оборудования Gigabit
Ethernet облегченно вздохнули: был окончательно утвержден стандарт IEEE 802.3ab,
то есть эта технология стала полностью легитимной. Поскольку поправки, внесенные
в проект стандарта, опубликованного в июле 1997-го и использовавшегося при разработке
оборудования года, были минимальными, это был вздох истинного облегчения.
Поразительна эволюция технологии Ethernet: она началась с сети Aloha Гавайского
университета, развернутой в начале 70-х и объединявшей посредством радиоканала
подразделения, которые находились на различных островах архипелага. Метод доступа
к среде передачи (эфиру) был соревновательным, что позволяет считать Aloha первой
сетью Ethernet. На основе этого метода доступа исследовательским подразделением
фирмы Xerox в Пало-Альто была разработана сеть, которая объединяла около 100
рабочих станций, связанных при помощи толстого коаксиального кабеля, и имела
производительность 2,94 Мбит/с. Затем было установлено еще несколько сетей такого
типа. Коммерческий успех этой технологии привел к появлению сети DIX, разработанной
совместно Digital, Intel и Xerox и названной по первым буквам этих фирм. DIX
имела тактовую частоту уже 10 МГц и соответственно максимальную пропускную способность
10 Мбит/с. В 1985 году на основе этой разработки был создан первый стандарт -
IEEE 802.3. Следует обратить внимание на то, что первоначальный стандарт предусматривал
в качестве среды передачи коаксиальный кабель, ныне практически не используемый.
В дальнейшем в стандарт были внесены изменения и дополнения, обусловленные появлением
сетевых технологий кабеля на неэкранированной витой паре. Сам кабель на витой
паре прошел собственную эволюцию - от категории 1, доставшейся в наследство от
телефонных линий, до находящихся сейчас на стадии разработки категорий 6 (ширина
полосы пропускания 200 МГц) и 7 (600 МГц).
В марте 1996 года, примерно через год после принятия стандарта 802.3u (Fast Ethernet),
положившего начало масштабируемости Ethernet, было принято решение о разработке
стандарта 802.3z (Gigabit Ethernet). В мае того же года 11 ведущих компаний,
наиболее заинтересованных в разработке и внедрении этой технологии, основали
GEA (Gigabit Ethernet Alliance - Альянс Gigabit Ethernet). В него первоначально
вошли 3Com Corp, Bay Networks, Inc., Cisco Systems, Inc., Compaq Computer Corp,
Granite Systems, Inc., Intel Corporation, LSI Logic, Packet Engines, Inc., Sun
Microsystems Computer Company, UB Networks и VLSI Technology. Основными целями
Альянса были объявлены выработка технических требований для включения в стандарт
и проведение тестирования в целях обеспечения открытости и совместимости. Сегодня
членами Альянса являются свыше 100 фирм (более подробную информацию можно получить
по адресу
http://www.10gea.org/
).
Существовавшие на момент начала разработки стандарта 802.3z технологии передачи
по кабелю с металлической токоведущей жилой не позволяли реализовать требуемую
ширину полосы, поэтому было принято решение об использовании в качестве среды
передачи оптоволоконного кабеля. В целях ускорения процесса разработки в качестве
стандарта физического уровня была использована уже существующая и опробованная
спецификация ANSI X3T11, использовавшаяся в то время для реализации интерфейса
Fibre Channel. Одновременно было решено выделить реализацию Gigabit Ethernet
на витой паре в отдельный стандарт - 802.3ab.
Стандарт под названием 1000Base-X предполагает использование трех типов среды
передачи из применяющихся для реализации физического уровня Fibre Channel:
1000Base-SX - 850-нм лазер на многомодовом оптоволокне (S от слова Short, коротковолновый);
1000Base-LX - 1300-нм лазер на одномодовом и многомодовом оптоволокне (L от
Long - длинноволновый);
1000Base-CX - короткий кабель на экранированной витой паре STP (C от Copper
- медь).
Типы кабелей представлены в
табл. 1
.
Соревновательный метод доступа к среде передачи (CSMA/CD, лежащий в основе Ethernet)
был сохранен, но для очередного десятикратного увеличения скорости пришлось несколько
доработать протокол канального уровня.
Первоначально Ethernet имел ограничение на минимальную длину фрейма - 64 байта.
Это связано с тем, что для обнаружения столкновения станция не должна успеть
закончить передачу фрейма прежде, чем его первый бит дойдет до наиболее удаленного
конца сегмента. Время, необходимое для уверенной идентификации столкновения,
называется Slot Time, или квант. Применяется также термин Slot Size - емкость
кванта, измеряемая в байтах. В первоначальном стандарте Ethernet емкость кванта
(а значит, и минимальная длина фрейма) была равна 64 байта, что хорошо согласовалось
с максимальной длиной кабеля - 2,5 км (Thick Ethernet).
При увеличении скорости передачи фреймы передаются быстрее, поэтому надо либо
увеличивать емкость кванта, то есть минимальную длина фрейма, сохраняя при этом
максимальную длину кабеля, либо сохранять минимальную длину пакета, уменьшая
максимальную длину кабеля. При разработке стандарта 802.3u (100 Мбит Ethernet)
был избран первый путь и максимальная длина кабеля сократилась до 100 м. Однако
сам стандарт представлял собой исходный Ethernet, умноженный ровно на 10. Дальнейшее
сокращение длины кабеля при разработке Gigabit Ethernet не представлялось возможным
- умножить ровно на 10 не удавалось. Поэтому было решено увеличить емкость кванта
до 512 байт.
Это решение подвергалось критике со всех сторон - с точки зрения как совместимости
(отклонение от предыдущих протоколов), так и производительности (короткие посылки
принудительно снабжаются внушительным <довеском>).
Проблема совместимости была решена довольно изящно: дополнение не включается
в состав фрейма, хотя и участвует в процедуре обнаружения столкновений. Таким
образом, фреймы формируются согласно предыдущим стандартам, но после передачи
фрейма размером от 64 до 511 байт за ним передается расширение (довесок), доводящее
суммарную длину до требуемых 512 байт. При переходе в Ethernet 10/100 этот довесок
снимается коммутатором чисто аппаратно, сам же фрейм проходит без изменений.
При трансляции фрейма из Ethernet 10/100 в Gigabit Ethernet происходит обратная
процедура, то есть дополнение до нужной длины.
Следует отметить, что по мере повышения скорости обмена способ доступа к среде
CSMA/CD целиком утрачивает свое значение, уступая позиции другому - полнодуплексному
(Full Duplex), впервые разработанному в процессе реализации стандарта IEEE 802.3.
При этом основным средством доступа к сети является коммутатор, который использует
специальные пакеты для разрешения/запрещения передачи.
В целях снижения влияния на производительность предложена технология Packet Bursting
(даже не <взрывпакет>, а просто извержение пакетов). При наличии нескольких коротких
фреймов, готовых для передачи, они передаются один за другим, то есть вместо
довеска пересылается нечто полезное. К сожалению, во многих случаях обмена маленькими
пакетами эта технология неприменима, например при обмене короткими фреймами приложений
типа <клиент-сервер>, когда после передачи запроса клиент должен дождаться ответа.
Реально Packet Bursting может улучшить положение в тех ситуациях, когда приложение
считывает или записывает данные последовательно, но мелкими, менее 512 байт,
порциями.
Первоначально технология Gigabit Ethernet разрабатывалась исходя из применения
в качестве передающей среды оптоволоконного кабеля. Работа по этому стандарту
началась еще в 1995 году. Однако, наряду с несомненным преимуществом по ширине
полосы пропускания, оптический кабель по сравнению с витой парой имеет и существенные
недостатки, правда, не технического, а скорее экономического характера: для установки
концевых разъемов требуется специальное оборудование и обученный персонал, сама
установка занимает достаточно много времени, кабель и разъемы дорогие. Но стоимость
монтажа - пустяки по сравнению с тем, что многие тысячи (а может быть, и миллионы)
километров кабеля с витой парой уже замурованы в стены и перекрытия зданий и
для перехода на новую технологию их надо:
а) извлечь и б)
заменить на оптоволоконные. Поэтому в 1997 году была образована рабочая группа
по разработке стандарта и прототипа Gigabit Ethernet, работающей на кабеле категории
5. Разработчики, применяя изощреннейшие методы кодирования и коррекции ошибок,
ухитрились втиснуть 1000 Мбит/с (а точнее, 125 Мбайт/с) всего в восемь медных
проводов, из которых, собственно и состоит кабель категории 5 (Cat 5). Поэтому
теперь, после окончательного утверждения стандарта, вся масса замурованного медного
кабеля получает, если выражаться языком компьютерных игр, еще одну жизнь. Утверждается,
что 1000Base-T работает на любом кабеле, который отвечает требованиям, предъявляемым
к категории 5, вот только вопрос в том, какая часть проложенного в России кабеля
проложена, а затем протестирована надлежащим образом... Считается, что если по
кабелю работает 100Base-T, то он и относится к категории 5, однако кабель категории
3, вполне работоспособный при использовании 100Base-T4, для 1000Base-T не пригоден.
Повышенное контактное сопротивление в опрессованном китайскими клещами тайваньском
разъеме, или плохая запрессовка в розетке (то есть те мелочи, которые стерпит
100Base-T) для Gigabit Ethernet неприемлемы, поскольку в технологию изначально
заложены предельные для категории 5 параметры кабельной системы. Это объясняется
применением схемы кодирования, которая включает элементы аналоговой техники,
всегда предъявляющей повышенные требования к качеству и помехоустойчивости канала
передачи.
По данным Gigabit Ethernet Alliance (GEA;
http://www.10gea.org/
), любой канал, на котором работает 100Base-TX (именно TX, а не FX или T4), пригоден
для 1000Base-T, однако, в дополнение к процедурам и тестируемым параметрам, определяемым
стандартом ANSI/TIA/EIA TSB-67, рекомендуется также проверять величины потерь
от отражения (Return Loss) и приведенных перекрестных помех на дальнем от передатчика
конце (Equal Level Far-End Crosstalk, ELFEXT). Первый параметр характеризует
ту часть энергии сигнала, которая отражается обратно из-за неточного согласования
волнового сопротивления кабеля и нагрузки (интересно, что может меняться при
замене нагрузки, то есть сетевой карты или концентратора (коммутатора)?). Второй
характеризует наводки от соседних пар.
Оба этих параметра никак не влияют на работу при использовании протокола 10Base-T,
но могут оказать некоторое воздействие при работе по протоколу 100Base-TX и весьма
существенное при 1000Base-T. Поэтому рекомендации по их измерению будут опубликованы
в рекомендации ANSI/TIA/EIA TSB-95, которая ужесточает требования к кабельной
системе по отношению к категории 5. Собственно говоря, элементарный здравый смысл
требует вначале протестировать канал, по которому планируется использовать 1000Base-T.
Дополнительные (по отношению к категории 5) требования к кабельной системе, способной
работать по протоколу 1000Base-T, изложены в проекте стандарта ANSI/TIA/EIA TSB-95.
В некоторых из уже имеющихся автоматических тестеров заложены возможности по
измерению параметров, критичных для 1000Base-T. Такие тестеры автоматически проводят
измерение всех необходимых параметров кабельной линии, в зависимости от стандарта
(Cat5, TSB-95, Cat5e) или конкретного приложения (1000Base-T). Для проведения
тестирования достаточно указать стандарт или приложение - результат выдается
в виде <Годен/Негоден> (PASS/FAIL).
GEA называет несколько фирм-производителей переносных кабельных тестеров (хотя
список может быть и неполным): Agilent Technologies, Datacom/Textron, Fluke и
Microtest (каждый из приборов может осуществлять как полный набор тестов, так
и отдельные тесты; некоторые из них имеют дополнительные возможности, помогающие
отыскать причину при получении отрицательного ответа):
Agilent Technologies (
http://wirescope.comms.agilent.com/
) - Wirescope 350;
Datacom/Textron (
http://http://www.datacom.textron.com/
) - LANcatТ System 6 (с дополнительным модулем C5e Performance Module);
Fluke (
http://http://www.flukenetworks.com
) - DSP4000, DSP4000PL, DSP4100, DSP4300;
Microtest (подразделение Fluke Networks;
http://www.microtest.com
) - OmniScanner 2.
На вопрос о вероятности того, что уже проложенный кабель окажется непригодным
для использования, рабочая группа по 1000Base-T дает ответ: менее 10%, указывая,
что эта величина является скорее экспертной оценкой, а не статистически проверенным
результатом.
Если же тестирование показывает непригодность кабеля для 1000Base-T, тем не менее
можно при помощи ряда мер попытаться спасти положение (вернее, уже проложенный
кабель).
Прежде всего можно попробовать заменить кабели, соединяющие оборудование с розеткой
(patch cord). Естественно, новые кабели должны иметь гарантированное качество,
то есть отвечать всем требованиям согласно расширенной спецификации категории
5 (Enhanced Category 5, Cat5e). Затем можно попытаться заменить как розетки (и
настенные, и кроссовую панель), так и наконечники на новые, отвечающие требованиям
Cat5e. В качестве последнего шага можно уменьшить до предела количество разъемов
в цепи, вплоть до исключения всех розеток вообще, что возможно при наличии запаса
кабеля в канале.
Необходимо помнить, что передача и прием по технологии 1000Base-T осуществляется
по всем четырем парам кабеля, поэтому должны быть правильно разведены все проводники,
а не только первые две пары (контакты 1, 2, 3 и 6), как это требовалось в технологиях
10Base-T и 100Base-T. Неправильная разводка контактов третьей и четвертой пары
в условиях 1000Base-T может привести к неработоспособности кабеля, прекрасно
функционировавшего при менее скоростных стандартах. Проверку правильности подключения
можно произвести при помощи простейшего кабельного тестера и даже омметра. Несколько
больше хлопот способна доставить так называемая разнопарка - подключение к разным
парам контактов, которые должны принадлежать к одной. Предыдущие стандарты на
небольших дистанциях разнопарку прощали, а обнаружить ее при помощи простейшего
кабельного тестера не представляется возможным.
Что касается прокладки новых соединений, то следует руководствоваться требованиями
к Cat5e, то есть все составные части должны иметь соответствующую маркировку
или сертификат, а количество разъемных соединений должно быть минимальным. Люди
обстоятельные, привыкшие иметь запас, могут использовать кабель и разъемы категории
6 (пока не утвержденной официально). Максимальная длина сегмента та же - 100
м. Единственное отличие состоит в том, что в сегменте может быть только один
повторитель (концентратор).
Нужно отметить, что 1000Base-T является не альтернативой, а дополнением Gigabit
на оптоволокне. Таким образом, не следует забывать о том, что почти для всех
сетевых технологий в качестве передающей среды существуют решения, основанные
как на оптоволоконном кабеле, так и на медном проводе. Даже для FDDI, ассоциирующейся
прежде всего с оптоволокном, существует стандарт CDDI (Copper FDDI - медный FDDI),
обеспечивающий такие же параметры канала передачи (кроме дальности), но с использованием
медного кабеля и витой пары. Дело в том, что оптоволоконный кабель, при равной
скорости передачи, обеспечивает значительно большую дальность, в десятки или
сотни раз большую, в зависимости от типа кабеля (одномодовый или многомодовый),
однако за соответственно большую цену. Это и дает указанным технологиям возможность
сосуществовать в разных сегментах рынка. Так, проводные технологии применимы
на коротких дистанциях, например для организации информационной магистрали при
топологии наподобие магистрали, свернутой в точку. При организации же сетей,
которые принято называть кампусными (от слова <кампус> - совокупность зданий
и сооружений, относящихся к университету; ныне этот термин имеет более широкое
толкование - локальная сеть, объединяющая комплекс зданий, расположенных на расстоянии
примерно до 10 км друг от друга), просто незаменима оптоволоконная технология,
легко перекрывающая расстояния до 10 км и более.
Итак, назначение 1000Base-T - это прежде всего увеличение пропускной способности.
С учетом того, что формат кадра остался тем же самым (незначительные изменения
коснулись не самого формата и минимальной длины кадра, а лишь длины промежутков
времени, используемых в алгоритме доступа к среде, что обусловлено большей скоростью
передачи), Gigabit Ethernet осталась той же самой технологией Ethernet, только
быстрее еще в сто раз. Поэтому подключение к уже имеющимся сетям происходит так
же просто, как и одновременное использование уже существующих устройств 10/100
Мбит.
В начало
В начало
Методика тестирования
етевые адаптеры принято характеризовать по абсолютной пропускной способности
в режиме передачи и получения данных, а также по так называемому индексу эффективной
производительности, о котором мы расскажем далее. Основной задачей нашего тестирования
являлось измерение именно этих характеристик.
Для проведения тестирования был собран стенд, состоящий из 16 рабочих станций,
компьютера-контроллера, сервера и коммутатора с гигабитным модулем.
Схема стендовой установки для проведения тестирования
На всех рабочих станциях и компьютере-контроллере были установлены сетевые адаптеры
Fast Ethernet 100Base-TX, а на сервере - гигабитный сетевой адаптер 1000Base-T.
Таким образом, сеть состояла из двух сегментов: первый сегмент - Fast Ethernet
100Base-TX - образовали рабочие станции и компьютер-контроллер, а второй сегмент
- Gigabit Ethernet 1000Base-T - был образован каналом связи между сервером и
коммутатором.
Использование именно 16 рабочих станций позволяло (даже с некоторым запасом)
полностью загрузить гигабитный сетевой адаптер, устанавливаемый в сервере, так
как программными эмуляторами сетевого трафика возможно создать скорость потока
порядка 80-90 Мбит/с на каждой рабочей станции.
На всех рабочих станциях была установлена операционная система Microsoft Windows
2000 Professional SP2, а на сервере и компьютере-контроллере - Microsoft Windows
2000 Server SP2. На всех рабочих станциях и сервере устанавливался стек сетевых
протоколов TCP/IP.
Для объединения рабочих станций, контроллера и сервера в сеть использовался коммутатор
Intel Express 530T, предоставленный для проведения тестирования представительством
компании Intel (
http://www.intel.ru/
). Этот коммутатор имеет 22 порта 100Base-TX и допускает опционную установку
двухпортового гигабитного модуля. Пропускная способность внутренней шины коммутатор
составляет 21,2 Гбит/с.
Максимально возможный в соответствии со стандартом сетевой трафик в 1 Гбит/с
(2 Гбит/с в полнодуплексном режиме работы) создает значительную нагрузку на процессорную
подсистему сервера. Следовательно, при тестировании необходимо было обеспечить
такие условия, чтобы узким местом являлся именно адаптер, а не процессорная подсистема
сервера. К примеру, если при трафике 500 Мбит/с оказывается, что утилизация процессора
составляет 100%, то очевидно, что сам трафик сдерживается возможностями сервера,
а не адаптером, то есть в этих условиях нельзя говорить о максимальной пропускной
способности адаптера. По этой причине мы использовали в нашем тестировании мощный
четырехпроцессорный сервер HP NetServer LH 6000 предоставленный компанией Hewlett-Packard.
При тестировании сетевых адаптеров необходимо создать такие условия, при которых
сетевая подсистема компьютера стала бы узким местом сети. Это означает, что сетевой
трафик должен быть ограничен именно пропускной способностью сетевого адаптера,
а не производительностью дисковой или процессорной подсистем. При выполнении
этого условия результаты можно считать достоверными и не зависящими от конфигурации
того компьютера, на котором устанавливается сам сетевой адаптер, а также от конфигурации
всех остальных компьютеров в сети. Одним из возможных способов реализации таких
условий тестирования является взаимодействие компьютеров в сети по принципу <оперативная
память - сеть - оперативная память>. К примеру, файл, который нужно скопировать
с одного компьютера на другой, должен находиться не на жестком диске компьютера,
а в его оперативной памяти (в файловом кэше). Тогда если такой файл считывается
другим компьютером сети, то скорость считывания не зависит от производительности
дисковой подсистемы, а определяется лишь производительностью сетевой подсистемы,
поскольку скорость считывания файла из оперативной памяти заведомо выше пропускной
способности сетевого адаптера. Одним из программных пакетов, реализующих именно
такой способ сетевого взаимодействия, является пакет IOmeter 1999.10.20 компании
Intel.
IOmeter - синтетический тест, который по сути своей является программным генератором
сетевого трафика и позволяет измерять практически все необходимые параметры.
С его помощью можно измерять абсолютную пропускную способность сетевого адаптера
как в режиме передачи, так и в режиме приема. Кроме того, измеряются скорость
передачи/приема пакетов, количество операций ввода/вывода, степень утилизации
процессора и многое другое. Важно отметить, что утилита IOmeter позволяет не
только измерять указанные параметры, но и эмулировать необходимую модель сетевого
доступа. Настройке подлежат такие параметры, как размер запроса приема/передачи,
процентное соотношение между случайным и последовательным распределением запросов,
процентное соотношение между распределением операций приема/передачи.
При тестировании на каждом из 16 компьютеров-клиентов запускалась программа генератора
(Dynamo), а на компьютере-контроллере - интерфейс утилиты IOmeter, позволяющий
производить все необходимые настройки. Кроме того, компьютер-контроллер собирает
и обрабатывает статистику выполнения теста со всех рабочих станций.
Для измерения максимальной пропускной способности адаптеров в режиме приема/передачи
данных на каждом из 16 компьютеров-клиентов запускалась программа генератора,
эмулирующая сетевой трафик в направлении к серверу или от сервера, а размер запроса
изменялся и составлял 512 байт, 1 Кбайт, 2; 4; 8; 16; 32; 64; 128 и 256 Кбайт.
При этом для достижения максимально возможного сетевого трафика все запросы носили
100% последовательный характер, а время задержки между запросами устанавливалось
равным нулю. Измеряемыми параметрами являлись сетевой трафик, проходящий через
гигабитный адаптер, и утилизация процессорной подсистемы сервера.
Степень утилизации центрального процессора при максимальной скорости передачи
- хотя и вторая, но не менее важная характеристика адаптера. Действительно, сравнивая
два адаптера с равными пропускными способностями, предпочтение следует отдать
тому из них, который в меньшей степени нагружает центральный процессор. В противном
случае при высокой сетевой активности сервер с таким адаптером будет <подвисать>,
делая невозможным запуск каких-либо прикладных задач.
Зная две эти характеристики, можно определить индекс эффективной производительности
(Performance/Efficiency Index Ratio, P/E) как отношение пропускной способности
адаптера (измеряемой в Мбит/с) к степени утилизации центрального процессора (измеряемой
в %). Значение индекса эффективной производительности позволяет легко сравнивать
адаптеры между собой: чем выше индекс, тем производительнее адаптер.
Говоря о максимальной пропускной способности адаптеров, степени утилизации центрального
процессора и об индексе эффективной производительности, нужно иметь в виду, что
все они в значительной мере зависят от размера запроса. Например, максимальный
сетевой трафик при минимальной загрузке процессора реализуется при больших размерах
запроса (256 Кбайт). В то же время в реальной ситуации запросы могут быть различными
и существенно меньшими - все определяется выбранной моделью доступа. Так, если
сервер используется в качестве файл-сервера, то наиболее характерными являются
запросы по 4 Кбайт и по 64 Кбайт. Если же рассматривается Web-сервер, то для
него характерны другие размеры запросов. Поэтому кроме определения характеристик
адаптеров для различных по размеру запросов (полученные цифры позволяют выбрать
адаптер для конкретного применения) мы рассмотрели две характерные модели доступа:
файл-сервера и Web-сервера, что позволило нам сравнивать адаптеры между собой
с учетом их возможного использования.
Модели доступа, эмулирующие файл-сервер и Web-сервер, были заимствованы нами
из тестового пакета IOmeter. В соответствии с этими моделями каждому размеру
запроса присваивался весовой коэффициент (
табл. 2
).
Весовой коэффициент каждого типа запросов определяет его долю в общем сетевом
трафике. Зная эти коэффициенты, мы рассчитывали усредненный (средневзвешенный)
сетевой трафик путем умножения сетевого трафика для данного размера запроса на
соответствующий ему весовой коэффициент и последующего сложения полученных произведений.
Также с учетом того что сетевой трафик определялся как для передачи данных, так
и для получения, в модели доступа файл сервера использовалось отношение 80/20.
Следовательно, при расчете окончательного усредненного сетевого трафика в модели
файл-сервера считалось, что 80% всего трафика направлено от сервера к клиентам
и 20% - от клиентов к серверу. В модели же Web-сервера считалось, что 100% трафика
направлено от сервера к клиентам.
Аналогичным образом определялись средние степени утилизации процессоров для двух
моделей доступа и индексы эффективной производительности.
В начало
В начало
Результаты тестирования
ля выбора самого качественного адаптера мы использовали зачетный результат тестирования
при эмуляции только модели доступа файл-сервера. Впрочем, можно было воспользоваться
и другой моделью доступа - результаты выбора при этом не изменились бы, поскольку,
несмотря на различия в численных значениях, пропорционально они повторяют друг
друга. Поэтому лучший адаптер для файл-сервера также будет лучшим и для Web-сервера.
Зачетных результатов тестирования было три: усредненный сетевой трафик, рассчитываемый
по описанной выше методике, усредненная загрузка процессора и усредненный индекс
эффективной производительности. Соответственно, чтобы иметь возможность сравнивать
адаптеры между собой интегрально, необходимо было учесть все три полученных результата.
Индекс эффективной производительности учитывает и утилизацию процессора, и максимальный
сетевой трафик, однако использовать его для сравнения производительности было
бы корректно только в том случае, если бы все адаптеры обладали одинаковой пропускной
способностью. Поэтому при выборе победителя мы учитывали только усредненную пропускную
способность и загрузку центрального процессора. Результаты оценки отдельных характеристик
адаптеров представлены в
табл. 3
Кроме того, для выбора оптимального адаптера учитывалась его цена, а точнее
соотношение <качество/цена>. Чем это соотношение выше, тем более выгодным является
покупка адаптера.
../../../../images/eye.gif
В начало
В начало
Выбор редакции
обедители проведенного тестирования определялись в номинациях <Самый качественный
адаптер> и <Оптимальный адаптер>.
Выбор победителей в номинации <Самый качественный адаптер> основывался на результатах
тестирования в соответствии с двумя типами моделей доступа (файл-сервер и Web-сервер).
Лидером в этой номинации стала модель
Intel PRO 1000T. Второе место здесь заняла модель
Intel PRO 1000TX.
Выбор победителя в номинации <Оптимальный адаптер> основывался на соотношении
<качество/цена>. И здесь безоговорочным лидером оказался адаптер
Intel PRO 1000TX.
Кроме того, сетевой адаптер 3Com 3C996-T
, который по результатам тестов на производительность вошел в тройку лидеров,
был отмечен особым <Выбором редакции> за оригинальные технические решения.
В начало
В начало
3Com 3C996-T
../../../../images/eye.gif
Этот сетевой адаптер выполнен на двух микросхемах производства Broadcom: контроллера
физического уровня (PHY) BCM5401KTB и контроллера PCI/MAC BCM5700TKPB.
Контроллер BCM5700 соответствует спецификациям PCI v.2.2 и PCI-X и, следовательно,
способен работать с шиной PCI шириной 32/64 бит с частотой 33/66/133 МГц. Как
контроллер Ethernet, он поддерживает работу со скоростью 10/100/1000 Мбит/с.
Для обеспечения универсальности применения имеется и интерфейс MII/GMII, необходимый
при использовании кабеля на витой паре, и интерфейс TBI, который служит для связи
с физическим уровнем сетей, построенных на оптоволоконном кабеле. Контроллер
соответствует спецификации PC99: поддерживаются ACPI, PCI Hot Plug, wake on LAN,
статистика для SNMP MIB II. Согласно стандарту IEEE 802.3p поддерживаются до
16 уровней приоритетов (при отсутствии внешней памяти - до 4).
Кроме того, адаптер поддерживает создание до 64 виртуальных локальных сетей,
соответствующих стандарту IEEE 802.1Q, а также объединения портов (IEEE 802.3ad).
Управление доступом к среде и потоком данных осуществляется как по методу CSMA/CD,
так и согласно спецификации IEEE 802.3x, при помощи обмена пакетами <Пауза>.
Объем буферной памяти составляет 192 Кбайт, что предохраняет от утери пакетов
внутри сетевого адаптера. Естественно, поддерживается и прямой доступ к памяти
Bus Mastering DMA (64 бит/с, 100 МГц), и функция горячей замены.
Кроме совместимости с различными стандартами, в адаптере используются технологии,
позволяющие снизить загрузку центрального процессора. Так, вычисление контрольных
сумм TCP/IP/UDP при получении пакетов выполняется в контроллере BCM5700 сетевого
адаптера, а не в центральном процессоре. Также реализованы технология объединения
прерываний для высвобождения процессорных ресурсов за счет сокращения числа прерываний
и группировки пакетов.
Среди прочих решений, реализованных в адаптере 3Com 3C996T, отметим возможность
объединять несколько каналов сервера в один логический канал, двунаправленное
выравнивание нагрузки (входящий и исходящий трафик) при подключении к коммутаторам
любых производителей. Кроме того, адаптер поддерживает технологию восстановления
серверных связей (Resilient Server Links), что позволяет резервным сетевым адаптерам
(или сетевому адаптеру на материнской плате компьютера) резервировать активные
сетевые адаптеры, включая адаптеры сторонних производителей. Когда вышедшая из
строя плата вновь становится исправной и возвращается к активному состоянию,
программное обеспечение снова назначает ее главным сетевым интерфейсом.
Контроллер физического уровня BCM5401 объединяет в одном корпусе приемопередатчики
спецификаций IEEE 802.3ab 1000Base-T, IEEE 802.3u 100Base-TX и IEEE 802.3 10Base-T.
Поддерживается функция Auto-negotiation.
К достоинствам контроллера физического уровня относится также его способность
обнаруживать и устранять многие проблемы, связанные с прокладкой и расконцовкой
кабеля, в их числе - перепутанные пары и ошибки полярности подключения. Во время
подключения контроллер производит анализ кабеля и подбирает коэффициенты фильтров,
улучшая таким образом характеристики канала приема/передачи.
Среди оригинальных новшеств отметим присутствие на плате специального датчика
тактовых импульсных сигналов. Этот датчик дает возможность станциям удаленного
управления проверять наличие специального периодического сигнала, отсутствие
которого может означать отключение сервера.
На планке адаптера имеются четыре светодиодных индикатора. Три из них - 10, 100
и 1000 - указывают на скорость, с которой установлено соединение, а индикатор
Act мигает при обмене данными по сети.
Драйвер адаптера для Windows 2000 поддерживает объединение разнородных адаптеров
по технологии Load Balancing, что позволяет получить отказоустойчивое соединение
сервера с сетью. Возможно также статическое объединение по стандарту IEEE 802.3ad.
При помощи пакета Advanced Server Control Suite, прилагаемого на CD-R, кроме
опций, доступных из меню драйвера, можно узнать и то, в каком режиме адаптер
работает с шиной PCI (32/64 бит, 33/66/100/133 МГц), провести тестирование различных
компонентов (памяти, CPU, приемопередатчика и т.п.).
В окне Cable Analysis можно проверить качество сетевого кабеля, его длину, соответствие
пар, взамопроникновение сигнала и прочие параметры.
При тестировании адаптер показал высокие результаты, войдя в тройку лидеров.
При малых размерах запросов (до 8 Кбайт) сетевой трафик возрастает пропорционально
размеру запроса - как для исходящего, так и для входящего трафиков, причем интенсивность
трафика также приблизительно одинакова для входящего и исходящего. Однако в этом
режиме для исходящего трафика средняя загрузка процессора составляет 90%, что
препятствует дальнейшему росту пропускной способности. При дальнейшем увеличении
размера запроса уровень входящего трафика насыщается на отметке 840 Мбит/с. Поведение
исходящего трафика несколько иное: при размере запроса 16 Кбайт наблюдается <провал>
в интенсивности трафика, что, возможно, связано с размером буфера на передачу.
Максимальная пропускная способность адаптера 3Com 3C996-T (Мбит/с)
../../../../images/eye.gif
Утилизация процессора 3Com 3C996-T (%)
../../../../images/eye.gif
В целом сетевой адаптер показал высокие результаты во всех тестах и может быть
рекомендован для использования в любых по назначению серверах.
Ознакомившись с функциональными возможностями этого адаптера, мы решили отметить
его специальным призом - за оригинальные технические решения.
В начало
В начало
Allied Telesyn AT-2970T
../../../../images/eye.gif
Адаптер AT-2970T имеет классическую для гигабитных адаптеров первого поколения
архитектуру и построен с использованием трех микросхем: контроллера PCI SysKonnect
Gigabit Ethernet L5A9338, сетевого контроллера XaQti XQ11800FP и контроллера
физического уровня PHY.
Связь с интерфейсом PCI обеспечивается контроллером SysKonnect Gigabit Ethernet
L5A9338, который реализован в соответствии со спецификацией PCI v.2.2 и поддерживает
обмен с системой по шине шириной 32/64 бит с тактовой частотой 33/66 МГц.
Поддерживаются расширения протокола PCI, такие как Memory Write And Invalidate,
Memory Read Line and Multiple для кэш-памяти размером до 128 32-битных слов.
Буферная память поддерживает пакеты размером до 199 х 64-бит при тактовой частоте
66 МГц.
Подсчет контрольных сумм TCP/IP производится аппаратно.
БИС сетевого контроллера (MAC) XaQti (ныне - подразделение Vitesse Semiconductor)
XQ11800FP поддерживает спецификации Ethernet IEEE 802.3z и IEEE 802.3x контроля
потока при помощи пакетов <Пауза> и полного дуплекса. Осуществляется поддержка
виртуальных сетей. Имеется поддержка мониторинга SNMP and RMON. Поддержка объединения
портов возможна на уровне драйверов.
Приемопередатчик (PHY) прикрыт радиатором, и никаких данных о нем обнаружить
не удалось.
На плате адаптера установлены четыре БИС статической памяти SRAM GVT7164B36 SRAM
4, что в сумме дает 1 Мбайт (!); возможна автономная работа (без обмена по интерфейсу
PCI) в течение 8 мс. Также имеется флэш-память AM29F010B размером 1 Мбит и организацией
128 Kбайт х 8.
Уникальной особенностью этого адаптера являются встроенные датчики температуры
и напряжения, которые позволяют отслеживать нахождение этих параметров в допустимых
границах.
По результатам тестирования этот адаптер занял четвертое место, лишь немного
уступив адаптеру 3Com 3C996T. При малых размерах запросов (до 2 Кбайт) исходящий
и входящий сетевой трафики возрастают пропорционально размеру запроса, оставаясь
приблизительно равными друг другу. При дальнейшем увеличении размера запроса
уровень входящего трафика насыщается на отметке 800 Мбит/с. Исходящий трафик
ведет себя иначе: при размере запроса 16 Кбайт наблюдается <провал> в интенсивности
трафика - может быть, это связано с размером буфера на передачу. В целом же интенсивность
исходящего трафика не превосходит 470 Мбит/с.
Адаптер целесообразно использовать особенно в тех сетевых сегментах, где основной
трафик направлен на сервер, то есть является входящим. Единственный, на наш взгляд,
недостаток этого адаптера - его необоснованно завышенная цена.
Максимальная пропускная способность адаптера Allied Telesyn AT2970T (Мбит/с)
../../../../images/eye.gif
Утилизация процессора Allied Telesyn AT2970T (%)
../../../../images/eye.gif
В начало
В начало
COMPEX FL1000T
../../../../images/eye.gif
Адаптер COMPEX FL1000T построен на основе набора микросхем National Semiconductor
DP83820 и DP83861 и рассчитан на работу в режимах 32/64 бит 33/66 МГц.
Для индикации режимов работы адаптер снабжен четырьмя светодиодными индикаторами:
100Mbps, 1000Mbps, Link/Activity, Duplex. Два первых показывают скорость соединения
с коммутатором, третий мигает при наличии сетевой активности, последний горит
постоянно при наличии связи в режиме полного дуплекса.
По результатам тестирования COMPEX FL1000T показал прекрасные для данного чипсета
результаты - из всех адаптеров, построенных на наборе микросхем National Semiconductor
DP83820 и DP83861, этот адаптер оказался лучшим, особенно в тестах на интенсивность
исходящего трафика. Максимальная интенсивность входящего трафика не превосходит
700 Мбит/с при максимальных размерах запроса, а интенсивность исходящего трафика
составляет порядка 400 Мбит/с, но слабо зависит от размера запроса. Наблюдается
незначительный <провал> в интенсивности исходящего трафика при размере запроса
16 Кбайт, что типично для большинства адаптеров.
Максимальная пропускная способность адаптера COMPEX FL1000T (Мбит/с)
../../../../images/eye.gif
Утилизация процессора COMPEX FL1000T (%)
../../../../images/eye.gif
В начало
В начало
D-Link DGE-550T
../../../../images/eye.gif
Этот адаптер построен на основе БИС DL-2000 (разработки и производства фирмы
Tamarack, Inc.,
http://www.tamarack.com.tw/
), которая является контроллером интерфейса PCI и одновременно контроллером Ethernet
100/1000 Мбит/с (MAC-уровень). Контроллер PCI выполнен в соответствии со спецификацией
PCI V2.2 и способен работать в режимах 32/64 бит 33/66 МГц. Для ускорения работы
с интерфейсом PCI контроллер состоит из двух частей - одна для чтения, другая
для записи, что позволяет разгрузить центральный процессор в режиме полного дуплекса.
БИС полностью соответствует спецификациям IEEE 802.3 и поддерживает скорость
обмена от 100 до 1000 Мбит/с, что дает возможность работы как с гигабитными,
так и традиционными сетями Ethernet.
Наличие стандартного интерфейса GMII/MII позволяет применять стандартные устройства
связи с физическим уровнем (PHY), а интерфейс TBI (Ten-Bit Interface) обеспечивает
универсальность БИС, давая возможность ее применения для построения адаптеров,
работающих с оптоволоконным кабелем.
Контроллер PCI разработан в соответствии со спецификациями ACPI v1.0, PC 97,
PC 98 и PC 99; PCI Power Management Specification v1 и OnNow.
Согласно спецификации Wake on LAN (WOL) осуществляется управление при помощи
магических пакетов, адресованных пакетов, ARP-пакетов и изменения состояния кабеля
(Phy status change).
Управление потоком происходит по спецификации 802.3x (полный дуплекс), включая
автоматическую передачу пакетов <Пауза> при переполнении буферной памяти, а аппаратный
подсчет контрольных сумм IPv.4, пакетов IP, TCP и UDP снижает нагрузку на центральный
процессор.
Поддерживается приоритезация по спецификациям 802.1p и 802.1q в направлениях
как на прием, так и на передачу.
Обеспечивается сбор статистики согласно спецификациям RFC 1213 (MIB II), RFC
1398 (Ether-like MIB), IEEE 802.3 LME, в результате чего снижается загрузка центрального
процессора задачами управления и мониторинга.
Имеется внутренний буфер размером 16 Кбайт для передаваемых и 32 Кбайт для принимаемых
пакетов. Поддерживается прием и передача гигантских пакетов (Jumbo packets).
Загрузка конфигурации адаптера происходит по последовательному интерфейсу из
EEPROM при включении или перезапуске компьютера.
Связь с физическим уровнем осуществляется при помощи БИС 88E1000 Alaska производства
фирмы Marvell (
http://www.marvell.com/
), снабженной радиатором.
БИС 88E1000 представляет собой полнофункциональный приемопередатчик физического
уровня (PHY) и может осуществлять взаимодействие с сетями, построенными на базе
протоколов 10Base-T, 100Base-TX и 1000Base-T. Она способна работать как по интерфейсу
IEEE 802.u MII, так и по IEEE 802.3z GMII. При этом обеспечиваются функция Auto-Negotiation
и автоконфигурирование MDI/MDIX на любой скорости обмена.
Состояние адаптера отображается при помощи четырех светодиодных индикаторов:
Link/Activity, Full Duplex, 1000 Mbps и 100 Mbps. Первый из них горит при наличии
связи с коммутатором и мигает при приеме/передаче данных, второй загорается при
наличии полнодуплексного соединения, два последних показывают скорость работы.
Интенсивность исходящего трафика слабо зависит от размера запроса и колеблется
от 160 до 300 Мбит/с. Интенсивность входящего трафика определяется размером запроса.
При размере запроса до 8 Кбайт/с трафик возрастает пропорционально размеру запроса,
после чего насыщается на уровне 700 Мбит/с. Для исходящего и входящего трафиков
утилизация процессора приблизительно одинакова и экспоненциально уменьшается
по мере роста размера запроса, насыщаясь приблизительно на уровне 30%.
Учитывая, что пропускная способность адаптера для входящего трафика значительно
выше, чем для исходящего, данный адаптер более целесообразно использовать в тех
сетевых сегментах, где основной трафик направлен на сервер со стороны клиентов.
Максимальная пропускная способность адаптера D-Link DGE-550T (Мбит/с)
../../../../images/eye.gif
Утилизация процессора D-Link DGE-550T (%)
../../../../images/eye.gif
В начало
В начало
Intel PRO 1000T (PWLA8490T)
../../../../images/eye.gif
В основе адаптера Intel PRO 1000T лежит микросхема 82543GC, выполняющая функции
как контроллера интерфейса PCI в соответствии со спецификацией 2.2 с шириной
32/64 бит и тактовой частотой 33/66 МГц, так и контроллера Ethernet 10/100/1000
Мбит/с.
Для связи с центральным процессором сервера используются как встроенные регистры
команд и данных, так и общие области в системной памяти.
Контроллер способен кэшировать до 64 дескрипторов пакетов и имеет 64 Кбайт буферной
памяти для временного хранения данных во время пиковых нагрузок.
Для связи с физическим уровнем используется стандартный интерфейс GMII (Gigabit
Media Independent Interface - гигабитный интерфейс, не зависящий от среды). Поскольку
контроллер является универсальным, имеется и интерфейс TBI (Ten Bit Interface
- десятибитный интерфейс), применяемый для связи с физическим уровнем в сетях
на оптоволокне.
Связь с физическим уровнем осуществляется при помощи микросхемы 88E1000 Alaska
производства фирмы Marvell (
http://www.marvell.com/
).
Светодиодные индикаторы показывают следующее: Link загорается при корректном
установлении связи с другим сетевым устройством (коммутатором), Rx/Tx Activity
мигает при наличии сетевой активности, Speed горит зеленым светом при установлении
скорости обмена 1000 Мбит/с и желтым при другой скорости.
Адаптер поддерживает технологии Adaptive Load Balancing, Gigabit EtherChannel,
Intel Link Aggregation, IEEE 802.3ad и Adapter Fault Tolerance, позволяющие гибко
объединять несколько сетевых карт Intel PRO 1000T в единое логическое устройство,
при этом сетевое соединение помимо высокой скорости обмена приобретает и дополнительную
устойчивость.
Адаптер обеспечивает функцию Mixed Adapter Teaming, позволяющую агрегировать
несколько адаптеров различных типов в один логический, с большей производительностью.
При условии поддержки со стороны материнской платы поддерживаются PCI Hot Plug/Active
PCI.
Для управления потоком в сети используются как метод CSMA/CD, так и пакеты <Пауза>
согласно IEEE 802.3x.
При установке в сервер нескольких адаптеров, управление ими осуществляется одним
драйвером.
При размере запроса на передачу (трафик от сервера) до 8 Кбайт адаптер хотя и
обеспечивает высокую пропускную способность, но значительно загружает процессорную
подсистему сервера, что вполне логично: высокий трафик неизбежно приводит к росту
нагрузки на процессор. Так, даже наш мощный четырехпроцессорный сервер едва справлялся
в этом режиме с нагрузкой - утилизация процессорной подсистемы была близка к
100%. Поэтому приводимая пропускная способность не является максимальной. Возможно,
при более мощной процессорной подсистеме сетевой трафик был бы еще выше. При
размерах запроса 16 Кбайт и выше нагрузка на процессорную подсистему резко снижается,
а трафик достигает своего максимального значения на уровне 700 Мбайт/с, что является
одним из самых высоких результатов в нашем тестировании. Если трафик направлен
на сервер со стороны клиентов, нагрузка на процессорную подсистему значительно
ниже при любых размерах запросов, несмотря на более интенсивный сетевой трафик.
Например, при размере запроса 16 Кбайт и выше сетевой трафик насыщается на уровне
800 Мбайт/с, что также является одним из самых высоких результатов в тестировании.
Максимальная пропускная способность адаптера Intel PRO 1000T (Мбит/с)
../../../../images/eye.gif
Утилизация процессора Intel PRO 1000T (%)
../../../../images/eye.gif
Учитывая высокие результаты тестирования, мы отметили этот адаптер в номинации
<Самый качественный адаптер>.
В начало
В начало
Intel PRO 1000XT (PWLA8490XT)
../../../../images/eye.gif
Этот адаптер принадлежит ко второму поколению адаптеров для серверов с использованием
стандарта 1000Base-T и построен с применением всего одной микросхемы - 82544.
Она выполняет функции контроллера интерфейса PCI с тактовой частотой 33/66/133
МГц и шириной шины 32/64 бит, сетевого процессора и связи с физическим уровнем
(PHY). Помимо контроллера на плате имеется микросхема AT49LV001N производства
фирмы Atmel, представляющую собой флэш-память объемом 1 Мбит (128 Кбайт х 8).
В остальном адаптер соответствует старшему брату - Intel PRO 1000T.
Контроллер содержит 16 Кбайт буферной памяти интерфейса PCI, что увеличивает
эффективность при пиковых нагрузках. Поддерживаются спецификации PCI 2.2 (32/64
бит, 33/66 МГц) и PCI-X 1.01a (тактовая частота до 133 МГц). Контроллер способен
осуществлять многобайтные пересылки, используя соответствующие операции на интерфейсе.
Для управления потоком в сети используются как метод CSMA/CD, так и пакеты <Пауза>
в соответствии с IEEE 802.3x.
В тестировании адаптер Intel PRO 1000XT, как и модель Intel PRO 1000T, показал
высокие результаты. При малых размерах запросов (до 16 Кбайт) сетевой трафик
возрастает пропорционально размеру запроса, а интенсивность входящего и исходящего
трафиков приблизительно одинакова. В этом режиме для исходящего трафика средняя
загрузка процессора составляет 90-100%, что препятствует дальнейшему росту пропускной
способности. При дальнейшем увеличении размера запроса уровень входящего трафика
насыщается на отметке 800 Мбит/с. Отличительной особенностью адаптера является
высокая интенсивность исходящего трафика, которая лишь незначительно ниже интенсивности
входящего трафика. При этом загрузка процессора при размерах запроса 16 Кбайт
и далее не превышает 50%. Такого результата не зафиксировано у других адаптеров,
поэтому данную модель можно смело назвать рекордсменом по исходящему трафику.
Максимальная пропускная способность адаптера Intel PRO 1000TX (Мбит/с)
../../../../images/eye.gif
Утилизация процессора Intel PRO 1000TX (%)
../../../../images/eye.gif
Поскольку этот адаптер имел высокие показатели тестирования, он был отмечен знаком
<Выбор редакции> и может быть рекомендован для использования в любых серверах,
особенно если предполагается, что интенсивность исходящего трафика превосходит
интенсивность входящего (как, например, в Web-серверах).
Отметим также, что адаптер Intel PRO 1000XT (PWLA8490XT) выпускается также и
в низкопрофильном варианте low profile - PWLA8490XT. (Есть еще два оптических
гигабитных адаптера: SX и XF.)
В начало
В начало
LinkPro FL-9100TX
../../../../images/eye.gif
Данный адаптер построен на основе набора микросхем National Semiconductor DP83820
и DP83861. Он снабжен пятью светодиодными индикаторами Link, Speed, Activity,
Collision, TX and RX status, отображающими состояние соединения на текущий момент.
По результатам тестирования адаптера LinkPro FL-9100TX можно сделать следующие
выводы. Интенсивность исходящего трафика слабо зависит от размера запроса и колеблется
от 200 до 350 Мбит/с. К тому же при размере запроса до 8 Кбайт утилизация процессора
- более 90%. При дальнейшем увеличении размера запроса загрузка процессора уменьшается
и достигает 30-40%, если размер запроса составляет более 64 Кбайт. Интенсивность
входящего трафика определяется размером запроса. При размере запроса до 8 Кбайт/с
трафик возрастает пропорционально размеру запроса, после чего насыщается на уровне
600-700 Мбит/с. Утилизация процессора экспоненциально уменьшается по мере роста
размера запроса, насыщаясь приблизительно на уровне 35%.
Максимальная пропускная способность адаптера LinkPro FL-9100TX (Мбит/с)
../../../../images/eye.gif
Утилизация процессора LinkPro FL-9100TX (%)
../../../../images/eye.gif
В начало
В начало
SMC 9452TX
../../../../images/eye.gif
В основу адаптера SMC 9452TX положено две микросхемы National Semiconductor:
контроллер интерфейса PCI и Ethernet 10/100/1000 Мбит/с (MAC-уровень) DP8321
BVM и контроллер физического уровня DP83861 VQM. В отличие от контроллера DP8320,
версия DP8321 реализует 32-битный PCI интерфейс (поддерживаются частоты 33 и
66 МГц), а во всем остальном функциональные возможности этих контроллеров совпадают.
На планке адаптера расположено пять светодиодных индикаторов, которые позволяют
определять режим работы (1000, 100 и 10 Мбит/с), а также сетевую активность и
наличие связи.
В отличие от прочих адаптеров, в комплекте имеется довольно подробное руководство
(правда, на английском языке) пользователя по установке адаптера.
Тестирование адаптера выявило, что при размерах запросов до 4 Кбайт входящий
трафик возрастает пропорционально размеру запроса, после чего насыщается на уровне
500 Мбит/с. Исходящий трафик практически не зависит от размера запроса и составляет
приблизительно 200 Мбит/с. При этом и для входящего, и для исходящего трафиков
утилизация процессора приблизительно одинакова и составляет порядка 30% при размере
запроса более 4 Кбайт.
Максимальная пропускная способность адаптера SMC 9452TX (Мбит/с)
/../../../images/eye.gif
Утилизация процессора SMC 9452TX (%)
../../../../images/eye.gif
В целом адаптер продемонстрировал результаты, типичные для контроллера DP8320/DP8321,
и может быть рекомендован для использования в рабочих станциях и серверах начального
уровня.
Отметим также, что кроме гигабитного адаптера SMC 9452TX существует и модель
SMC 9462TX, которая отличается только наличием 64-битного интерфейса (в ней используется
контроллер DP8320 BVM).
В начало
В начало
Surecom EP-320GTX
./../../../images/eye.gif
Адаптер Surecom EP-320 GTX построен на популярном наборе микросхем National Semiconductor
DP83820 и DP83861 с поддержкой режимов работы 33/64 бит 33/66 МГц.
Адаптер снабжен четырьмя светодиодными индикаторами: Act, Link, 1000 и 100, назначение
которых следует из их названий. Собственно, все функциональные возможности этого
адаптера в полной мере определяются его набором микросхем (см. врезку).
Результаты тестирования адаптера Surecom EP-320GTX типичны для адаптеров на наборе
микросхем National Semiconductor DP83820 и DP83861. Интенсивность исходящего
трафика слабо зависит от размера запроса и колеблется от 200 до 350 Мбит/с. Интенсивность
входящего трафика определяется размером запроса. При размере запроса до 8 Кбайт/с
трафик возрастает пропорционально размеру запроса, после чего насыщается на уровне
650 Мбит/с. Утилизация процессора приблизительно экспоненциально уменьшается
по мере роста размера запроса как для исходящего, так и для входящего трафиков,
насыщаясь на уровне 25%. Характерно, что при всех размерах запросов утилизация
процессора приблизительно одинакова для обоих типов трафиков.
Максимальная пропускная способность адаптера Surecom EP-320GTX (Мбит/с)
../../../../images/eye.gif
Утилизация процессора Surecom EP-320GTX (%)
../../../../images/eye.gif
Учитывая вполне приемлемые результаты тестирования этого адаптера, а также рекордно
низкую цену, он выглядит очень привлекательной покупкой.
В начало
В начало
TRENDnet TEG-PCITX2
../../../../images/eye.gif
Этот адаптер также собран на наборе микросхем National Semiconductor DP83820
и DP83861. Он снабжен целыми шестью светодиодными индикаторами: 10, 100 и 1000
отображают скорость текущего соединения, ACT свидетельствует о наличии приема/передачи
данных, FDX загорается при наличии связи в полнодуплексном режиме, а COL мигает
при возникновении коллизий в режиме полудуплекса.
По результатам тестирования можно сделать следующие выводы. Интенсивность входящего
трафика определяется размером запроса, но при размерах более 16 Кбайт трафик
насыщается на уровне 650 Мбит/с. Утилизация процессорной подсистемы сервера для
входящего трафика экспоненциально убывает по мере роста размера запроса от 70
до 25%. Интенсивность исходящего трафика практически не зависит от размера запроса
и колеблется от 100 до 200 Мбит/с.
Хотя данный адаптер является рекордсменом по индексу эффективной производительности,
все-таки нельзя говорить о его преимуществе. Низкая загрузка процессора связана
с соответствующей низкой пропускной способностью адаптера. Узким местом, на наш
взгляд, является его пропускная способность на передачу (фактически это является
основным режимом работы сервера). Поэтому такой адаптер целесообразно использовать
только в тех сетевых сегментах, где основным типом трафика является входящий.
Максимальная пропускная способность адаптера TRENDnet TEG-PCITX2 (Мбит/с)
../../../../images/eye.gif
Утилизация процессора TRENDnet TEG-PCITX2 (%)
../../../../images/eye.gif
подписчиков на данный момент 96