← Январь 2005 → | ||||||
1
|
||||||
---|---|---|---|---|---|---|
3
|
4
|
5
|
6
|
7
|
8
|
9
|
10
|
11
|
12
|
13
|
14
|
16
|
|
17
|
18
|
19
|
20
|
21
|
23
|
|
24
|
25
|
26
|
27
|
28
|
30
|
|
31
|
За последние 60 дней ни разу не выходила
Сайт рассылки:
http://tdigest.ru
Открыта:
07-09-2003
Статистика
0 за неделю
ТехСобытия - самые интересные события в области технологий Выпуск 67
Информационный Канал Subscribe.Ru |
ТехСобытия | Обзор самых интересных событий в области информационных технологий, влияния технологий на нашу жизнь, интересных технических новинок и людей. Регулярная рассылка для думающих читателей. |
Выпуск №67 |
От редактора: Доброго всем здоровья! Пишите письма :-). Помните, если в письме не указано обратное, то рядом с откликом или статьей будет стоять Ваше имя и электронный адрес. Письма жду на mobio@yandex.ru. Содержание Культ гигиены привратил Англию в страну астматиков / Здоровье Культ чистоты и гигиены превратил Великобританию в страну астматиков, полагают британские медики. На сегодняшний день астмой страдают около 14% юных жителей Соединенного Королевства в возрасте от 2 до 15 лет, среди взрослого населения это соотношение составляет 4%. «Гюйгенс»: оглушительный успех / Космос Миссия «Гюйгенса» на Титан завершилась оглушительным успехом, научная программа исследований выполнена практически полностью, а качество и полнота полученных данных - превосходны. Итоги работы большого коллектива ученых над обработкой данных будут подведены в ходе пресс-конференции, назначенной на 13 часов по московскому времени 21 января. Сейчас можно обозначить предварительные результаты. Полимеры можно делать из цитрусов / Тенденции В настоящее время сырьём при производстве полимеров служит, в основном, нефть. Однако американские ученые из Корнельского университета разработали технологию, которая позволяет изготавливать полимеры из обыкновенных цитрусовых растений. Мрак окутывает Землю / Тенденции Уверенность людей старшего возраста в том, что раньше даже Солнце светило ярче, чем теперь, как оказалось, имеет под собой более чем весомые основания. Британский ученый доктор Гэрри Стэнхилл (Gerry Stanhill) на основании анализа данных многолетних наблюдений установил, что количество солнечного света, достигающего поверхности Земли, непрерывно и быстро снижается. Как сообщает ВВС, д-р Стэнхилл, работающий в настоящее время в Израиле, еще в 2001 году назвал этот феномен "глобальным затемнением" (global dimming). Глава Amazon задумал новую "блажь" / Космос Окруженная завесой таинственности компания Blue Origin, основанная исполнительным директором Amazon.com Джеффом Безосом (Jeff Bezos), недавно без излишнего шума объявила о планах создания на территории удаленного ранчо в западном Техасе, принадлежащего г-ну Безосу, ракетно-космического испытательного полигона. Генетики получили нового помощника для исследований ДНК / Наука Ученым южнокорейского научно-исследовательского института электроники и телекоммуникаций ETRI удалось разработать программу, предназначенную для анализа ДНК клеток, сообщает PhysOrg. Новая разработка позволит исследователям производить максимально точный анализ цепочек ДНК и точно распознавать гены, которые несут в себе информацию о разного рода заболеваниях, в том числе и о раковых. Microsoft обнародовала предварительную версию Avalon / Операционные системы В пятницу Microsoft выложила общедоступную предварительную версию Avalon, своего нового механизма обработки графики и представления информации для Windows. Toshiba разработала технологию для удаленной работы с помощью мобильника / Тенденции Компания Toshiba разработала новое ПО, которое позволит мобильным телефонам удаленно выполнять все функции ПК на базе Windows, в том числе редактирование документов и отправка электронной почты, сообщает АР. ПО Brew и примененная технология сжатия данных позволят пользователям управлять файлами на компьютерах независимо от того, находится ли он, например, на остановке или в поезде. Google представила недорогое поисковое устройство / Тенденции В четверг Google выпустила Google Mini, устройство для поиска информации в корпоративных интрасетях небогатых организаций. Google ищет «темное оптоволокно» / Тенденции Планирует ли Google строить новую глобальную оптоволоконную сеть? И если да, то зачем? Apple выпустила дешевый iPod / Музыка Во вторник Apple Computer представила новую версию своего популярного музыкального плеера iPod Shuffle, которая поставляется в двух вариантах, по цене всего $99 и $149, и вмещает соответственно 120 и 240 песен. iWork против Microsoft Office / Программное обеспечение Компания Apple Computer анонсировала собственный комплекс деловых приложений iWork '05 вместе с группой продуктов, нацеленных на конкуренцию с Microsoft и ее пакетом Office. Apple продемонстрировала систему локального поиска Spotlight / Программное обеспечение Стив Джобс рассказал о будущей встроенной поисковой машине Apple, которая, по его словам, превосходит конкурирующие продукты от Google и Microsoft. Fujitsu и Toray разработали первый экологически чистый корпус для ноутбуков / Тенденции Как сообщает JapanCorp, компании Fujitsu Limited, Fujitsu Laboratories и Toray Industries объявили о том, что им удалось разработать первый в мире пластиковый корпус для ноутбуков, который экологически безопасен для окружающей среды. Отзывы про отзывы :-) / Отзывы Руководство по очистке жесткого диска / Творчество читателей Культ гигиены привратил Англию в страну астматиков / Здоровье Культ чистоты и гигиены превратил Великобританию в страну астматиков, полагают британские медики. На сегодняшний день астмой страдают около 14% юных жителей Соединенного Королевства в возрасте от 2 до 15 лет, среди взрослого населения это соотношение составляет 4%. Если 40 лет назад сельский доктор, посещая дом фермера где-нибудь в графстве Норфолк с крысами во дворе, кошками на кухне и собаками в каждой комнате, мог бы обнаружить у проживавших там детей множество заболеваний, но не астму, говорят врачи. Сегодня же, приходя в дом в той же деревушке и видя собственное отражение на идеально чистом полу, доктор может с большой долей уверенности предположить, что причиной его вызова к больному ребенку стали отдышка, приступы удушья, воспаление дыхательных путей. За период с 1982 по 1992 год, начала повального "поклонения" гигиене и различным моющим и чистящим средствам, количество страдающих астмой детей в стране утроилось. Индустриально-городской образ жизни, распространившийся на сельские районы Британии, привел за собой астму. К примеру, в Лейсестере с 1990 по 1998 год число случаев заболевания астмой у детей удвоилось. Одной из причин этого, как полагают специалисты, стало поддержание в домах идеальной чистоты, что привело к значительному ослаблению иммунной системы детей, избавленной с самого рождения от необходимости вырабатывать защитные антитела для противодействия грязи и различным связанным с нею болезнетворным микробам. В частности, врачи Университета Бристоля в своем недавнем исследовании предположили наличие прямой зависимости между идеальной чистотой и астмой, усиливаемой воздействием непосредственно самих чистящих средств. Положение, по мнению врачей, усугубляется еще и тем, что сегодняшние дети, в отличие от их родителей и уж тем более от бабушек и дедушек, проводят гораздо больше времени в стенах домов или квартир, где создан щадящий режим для их иммунной системы. Об этом сообщает ИТАР-ТАСС © iNauka.ru вернуться к содержанию «Гюйгенс»: оглушительный успех / Космос Миссия «Гюйгенса» на Титан завершилась оглушительным успехом, научная программа исследований выполнена практически полностью, а качество и полнота полученных данных - превосходны. Итоги работы большого коллектива ученых над обработкой данных будут подведены в ходе пресс-конференции, назначенной на 13 часов по московскому времени 21 января. Сейчас можно обозначить предварительные результаты. «Господь улыбнулся нам», - выразил общее мнение специалистов ESA, принимавших участие в работе над проектом «Гюйгенс», генеральный директор программы космических исследований европейского космического агентства Дэвид Саутвуд (David Southwood). Проделав семилетнее путешествие длиной 4 млрд. км, «Гюйгенс» 14 января в 13 часов 13 минут по московскому времени вошел в атмосферу Титана, а в 15 часов 45 минут произвел посадку. Передача данных зондом осуществлялась на протяжении нескольких часов, однако ретранслировавший их на Землю «Кассини» вскоре зашел за горизонт. Общее время передачи данных с момента посадки «Гюйгенса» на «Кассини» до прекращения трансляции составило 1 час 12 минут. Качество информации – великолепное. По данным ESA, за 3 часа 44 минуты, в течение которых зонд передавал информацию (включая передачу во время спуска в атмосфере), было передано 474 мегабита данных, в том числе 350 изображений. На снимках взорам ученых предстал характерный «прибрежный» ландшафт. Участки более светлой «суши» изрезаны напоминающими разветвленную речную дельту каналами – по всей видимости, метановыми или этановыми реками. От относительно более темного «моря» «сушу» отделяет характерная береговая линия. На поверхности видны подвергшиеся эрозии камни – возможно, из льда. Анализ химического состава атмосферы показал, что она представляет собой довольно однородную смесь азота и метана, концентрация метана по мере спуска увеличивается. На высоте около 20 км зарегистрированы облака из метана, у самой поверхности – метановый или этановый «туман». Скорость ветров и циркуляцию атмосферы удастся определить после окончательного восстановления траектории спуска зонда – такие данные удалось получить с помощью анализа радиосигналов, передаваемых зондом, наземными радиотелескопами. На высотах 125-20 км зонд взял пробы аэрозолей, содержащихся в атмосфере, и провел их анализ. Во время спуска осуществлялась звукозапись. Ее целью была регистрация сигналов электрических разрядов в атмосфере, однако, помимо этого, она позволила получить впечатляющую запись звуков, сопровождавших спуск и посадку «Гюйгенса». После посадки (скорость зонда в этот момент составляла примерно 4,5 метра в секунду) приборы зонда провели анализ механических свойств грунта. «Гюйгенс» опустился на поверхность, напоминающую влажный песок, или, точнее, ледяную «кашицу» с тонким ледяным «настом». Температура на поверхности – примерно минус 180 градусов Цельсия. Свет на планете (но не цвет ее поверхности!) - красно-оранжевый. Серия снимков, полученных после посадки, позволила создать фильм из 98 кадров объемом 1,6 МБ, на котором видны неопределенные «артефакты», периодически появляющиеся в поле зрения. С некоторой долей вероятности можно предполагать, что это падающие «снежинки». Первоначальный анализ данных, переданных «Гюйгенсом», позволяет предположить, что атмосфера Титана напоминает земную, какой она была примерно 3,8 млрд. лет назад. Жизни на Титане, по всей видимости, нет. © CNews.ru вернуться к содержанию Полимеры можно делать из цитрусов / Тенденции В настоящее время сырьём при производстве полимеров служит, в основном, нефть. Однако американские ученые из Корнельского университета разработали технологию, которая позволяет изготавливать полимеры из обыкновенных цитрусовых растений. Как сообщается, в ходе экспериментов команда профессора Джеффри Коатса использовала обыкновенный углекислый газ и так называемый лимонен - вещество, содержащееся в кожуре апельсинов и еще примерно в трехстах растениях. Лимонен составляет до 95 процентов масла апельсиновой кожуры и широко применяется в качестве ароматизатора в различных чистящих средствах, кремах и пр. Методика получения этого вещества хорошо отработана на практике. Что касается углекислого газа, то его в огромных количествах выбрасывают в атмосферу различные заводы, фабрики и промышленные предприятия. Материал, созданный американскими химиками, получил название карбонат полилимонена (polylimonene carbonate). Примечательно, что получить данный полимер, по свойствам сильно напоминающий обыкновенный пенопласт, исследователи смогли только благодаря использованию специального катализатора, в присутствии которого удалось построить длинные цепочки из оксида лимонена и углекислого газа. Ученые считают, что в перспективе полимеры на основе цитрусовых растений могут стать хорошей альтернативой традиционным полимерам, полученным из нефтяного сырья. Тем более, что новая технология позволяет сократить выбросы в атмосферу углекислого газа, который, как считается, является основной причиной глобального потепления. © Compulenta.ru вернуться к содержанию Мрак окутывает Землю / Тенденции Уверенность людей старшего возраста в том, что раньше даже Солнце светило ярче, чем теперь, как оказалось, имеет под собой более чем весомые основания. Британский ученый доктор Гэрри Стэнхилл (Gerry Stanhill) на основании анализа данных многолетних наблюдений установил, что количество солнечного света, достигающего поверхности Земли, непрерывно и быстро снижается. Как сообщает ВВС, д-р Стэнхилл, работающий в настоящее время в Израиле, еще в 2001 году назвал этот феномен "глобальным затемнением" (global dimming). Сравнив данные об общем количестве солнечной радиации, достигающей поверхности Земли, за период с 1950-х годов и до наших дней, д-р Стэнхилл обнаружил, что этот показатель уменьшился весьма заметно - на 22%. Причем данная тенденция не имеет локального характера - сравнение данных наблюдений, сделанных в различных районах планеты, дает в целом схожую картину. Так, в США солнечный свет "потускнел" на 10%, на территории СССР — почти на 30%, на Британских островах — на 16%. В целом, количество солнечного света, достигающего Земли, уменьшалось на 2% каждое десятилетие, начиная с 1950-х и вплоть до 1990-х. Механизм и последствия этого феномена пока изучены в недостаточной степени. Вероятно, феномен "global dimming" вызван загрязнением атмосферы планеты продуктами промышленной деятельности человека. Загрязнение воздуха твердыми пылевыми частицами приводит к отражению части солнечной радиации обратно в космическое пространство и, в частности, к изменению оптических свойств облаков. Пылевые частицы служат центрами конденсации водяного пара, в результате чего капелек в содержащих пылевые частицы облаках больше, чем в обычных, что, в свою очередь, способствует повышенному отражению солнечного излучения. Теория д-ра Стэнхилла, поначалу с недоверием встреченная научным сообществом, недавно была подтверждена его австралийскими коллегами, пришедшими к аналогичным выводам с помощью совершенно иной методики учета солнечной радиации. Эксперты забили тревогу. Ряд ученых высказывает предположения, что "глобальное затемнение" может привести к существенным изменениям в климатических процессах на планете и в циркуляции атмосферы. Возможно, именно в нем кроется причина страшной засухи, поразившей район Сахары в 1970-х - 1980-х годах и приведшей к сотням тысяч жертв. Есть основания полагать, что нечто подобное на наших глазах происходит с Азией, где проживает почти половина всего населения Земли. "На мой взгляд, глобальное затемнение оказывает разрушительное воздействие на азиатские муссоны, - заявил профессор Калифорнийского университета (г. Сан-Диего) Вирхабхадран Раманатан (Veerhabhadran Ramanathan). - Мы ведем речь о миллиардах людей". Весьма тревожащим фактом является то, что данный эффект способствовал существенной недооценке истинного масштаба парникового эффекта, ведущего к потеплению. Ученые давно отмечали несоответствие между количеством солнечной энергии, поглощаемой в атмосфере вследствие избыточного присутствия в ней двуокиси азота, и относительно незначительным повышением средней температуры – на 0,6 градуса. Выявленный английским ученым «эффект затемнения», оказывая противоположное воздействие, может в существенной степени скрывать парниковый эффект. Это, в свою очередь, может означать, что климат значительно более чувствителен к парниковому эффекту, чем считалось ранее. Если это действительно так, то это очень плохая новость, считает доктор Питер Кокс (Peter Cox), один из ведущих специалистов по моделированию климата. Дело в том, что как раз в последние десятилетия выделение углекислого газа, вызывающего парниковый эффект, резко возросло, в то время как выброс пылевых частиц, приводящих к противоположно направленному эффекту «глобального затемнения», удалось поставить под контроль. «Мы попадаем в ситуацию, в которой выделение «охлаждающих» атмосферу загрязнений идет на убыль, а «нагревающих» ее – растет, - подчеркивает он. – Это означает снижение охлаждающего действия при одновременном нарастании действия нагревающего, и это представляет из себя большую проблему». Даже самые пессимистические прогнозы развития климата на планете, по всей видимости, придется скорректировать в худшую для человечества сторону. Рост средней температуры на 10 градусов к 2100 году становится более чем реальным. Значительным территориям нашей планеты, возможно, суждено стать необитаемыми. © CNews.ru вернуться к содержанию Глава Amazon задумал новую "блажь" / Космос Окруженная завесой таинственности компания Blue Origin, основанная исполнительным директором Amazon.com Джеффом Безосом (Jeff Bezos), недавно без излишнего шума объявила о планах создания на территории удаленного ранчо в западном Техасе, принадлежащего г-ну Безосу, ракетно-космического испытательного полигона. Будущий полигон будет располагаться к северу от г. Ван Хорн, население которого (по состоянию на 2000 г.) составляло 2,4 тыс. человек. В заявлении Blue Origin говорится, что в планах компании — строительство суборбитального космического корабля с вертикальным стартом и посадкой, экипаж которого будут составлять три (или более) астронавта. Среди первоочередных планов компании — строительство на будущем полигоне основных зданий и сооружений. В их числе — стенд для испытания двигательных установок, емкости для хранения горючего и воды, а также офисное здание. Черед летных испытаний наступит через 6-7 лет. В местной газете Van Horn Advocate Джефф Безос написал: «Техас давно стал признанным лидером в аэрокосмической отрасли, и мы очень рады открывшейся возможности организовать наш полигон именно здесь». Джефф Безос, по данным Silicon.com, уже сформировал группу из признанных «ветеранов» космической отрасли, принимавших в свое время участие в разработке ряда проектов в аэрокосмической области и в программе создания ПРО. Представитель компании Blue Origin, подтвердив наличие планов строительства полигона, тем не менее, воздержался от пространных комментариев. Несмотря на то, что об увлечении Джеффа Безоса космосом известно уже не один год, только теперь основатель Amazon впервые обозначил приоритеты Blue Origin. Вплоть до этого момента компания была известна только своим аскетичным сайтом, на котором указывалось, что она будет «способствовать освоению космоса человеком». Г-н Безос — не единственный ветеран высоких технологий, устремивший свой взгляд на звезды. В сентябре минувшего года компания, финансирование которой осуществлял один из основателей Microsoft Пол Аллен, сумела выиграть гонку за так называемый Х-приз фонда Ansari в размере $10 млн., осуществив успешные полеты пилотируемого космического корабля SpaceShipOne в космос в соответствии с условиями, сформулированными фондом. В конце февраля 2005 года должна совершить свой первый полет ракета Falcon, построенная компанией SpaceX, основанной еще одним признанным авторитетом мира высоких технологий, создателем компании PayPal Элоном Маском (Elon Musk). Ракете предстоит вывести на орбиту искусственный спутник Земли военного назначения. Джон Кармак (John Carmack), основатель ID Software, специализирующейся в области создания видеоигр, основал компанию Armadillo Aerospace, с помощью которой надеется прославить собственную торговую марку теперь и вне Земли. Во время пресс-конференции, прошедшей в г. Ван Хорн, Джеф Безос сообщил корреспонденту Van Horn Advocate, что в выборе места для строительства полигона сыграли свою роль его детские воспоминания — ребенком он проводил много времени на ранчо своего деда в южном Техасе. «Надеюсь, что моя семья получит не меньше впечатлений от моего ранчо теперь уже в западном Техасе», — сказал он. © CNews.ru вернуться к содержанию Генетики получили нового помощника для исследований ДНК / Наука Ученым южнокорейского научно-исследовательского института электроники и телекоммуникаций ETRI удалось разработать программу, предназначенную для анализа ДНК клеток, сообщает PhysOrg. Новая разработка позволит исследователям производить максимально точный анализ цепочек ДНК и точно распознавать гены, которые несут в себе информацию о разного рода заболеваниях, в том числе и о раковых. Сами по себе гены определяют строение одного из белков живой клетки и участвуют в формировании свойств организма. Таким образом, если ген создает нестандартный белок, то он может явиться серьезной проблемой для человека. Новая программа позволяет проводить подробный анализ белков и предсказывать возможные изменения в структуре цепочек ДНК. Со стопроцентной точностью определяются «больные» гены. С появлением этой программы станет реальностью проведение генетической терапии, которая позволит удалять клетки из цепочки ДНК, которые вызывают болезни и откорректировать ее, вставляя недостающие в цепочке клетки. © CNews.ru вернуться к содержанию Microsoft обнародовала предварительную версию Avalon / Операционные системы В пятницу Microsoft выложила общедоступную предварительную версию Avalon, своего нового механизма обработки графики и представления информации для Windows. Первоначально Avalon был также главной опорной колонной Longhorn — следующей версии Windows. Но в прошлом году компания решила сделать его доступным и в качестве дополнения к Windows ХР и Windows Server 2003. Несмотря на то, что от Avalon во многом зависит будущее Windows, среднему пользователю компьютера никогда не придется иметь дело непосредственно с этим механизмом. Он лишь улучшает обработку графики и обещает разработчикам возможность писать более красивые приложения. В ноябре Microsoft выпустила версию Avalon community technology preview для разработчиков; теперь тот же код сделан доступным для всех. «Мы рады в ответ на многочисленные просьбы предложить ту же сборку широкой публике», — говорится на веб-сайте Microsoft. Версия preview работает на Windows XP и Windows Server 2003. Однако Microsoft предупредила разработчиков, что код текущей версии достаточно сырой. Компания рекомендует не использовать его даже на основном компьютере программиста, так как высока вероятность того, что из-за ошибок пользователю со временем придется переустанавливать операционную систему, с которой он пробовал Avalon. В ноябре минувшего года Microsoft обещала, что выпустит бета-версию Avalon этим летом, а окончательную версию — в 2006 году. В прошедшую пятницу представитель компании отказался добавить что-либо по поводу сроков. © ZDNet.ru вернуться к содержанию Toshiba разработала технологию для удаленной работы с помощью мобильника / Тенденции Компания Toshiba разработала новое ПО, которое позволит мобильным телефонам удаленно выполнять все функции ПК на базе Windows, в том числе редактирование документов и отправка электронной почты, сообщает АР. ПО Brew и примененная технология сжатия данных позволят пользователям управлять файлами на компьютерах независимо от того, находится ли он, например, на остановке или в поезде. Компания планирует запустить новый сервис в конце марта. Программа Ubiquitous Viewer будет доступна для скачивания в интернете или предустановлена на CDMA1X-телефонах компании KDDI. Идея использования мобильного телефона для удаленного доступа к компьютеру не нова, однако ранее разработанные программы не обладали всеми возможностями Windows-ПК. В компании надеются, что с помощью программы Ubiquitous можно будет контролировать домашние серверы для записи ТВ-программ, управления системами безопасности и кондиционирования. О стоимости нового сервиса пока не сообщается. © CNews.ru вернуться к содержанию Google представила недорогое поисковое устройство / Тенденции В четверг Google выпустила Google Mini, устройство для поиска информации в корпоративных интрасетях небогатых организаций. Новым продуктом компания надеется расширить свой бизнес поисковых устройств, охватив им более мелкие предприятия с меньшим числом документов и более скромными бюджетами. Синяя коробка, которая подключается к корпоративной интрасети и может обрабатывать до 50 тыс. документов, поступила в продажу на Google.com по цене $4995. Для сравнения, первое поисковое устройство Google, выпущенное в 2002 году, продается по цене от $30 тыс. Оно осуществляет поиск среди 100 тыс. и более документов. Компания готовит новую версию большого поискового устройства, которая предложит заказчикам дополнительные средства защиты и другие функции. Устройства составляют побочный бизнес для Google, сделавшей имя на веб-поиске, который дает простые и релевантные результаты. По оценкам аналитиков, продажи корпоративных поисковых устройств приносят компании всего $50 млн в дополнение к почти миллиардному годовому доходу от рекламы. «Все дело в фокусе. Они фокусируются на своем основном бизнесе», — считает вице-президент Forrester Research Лаура Рамос. Но генеральный менеджер корпоративного бизнеса Google Дейв Джирард уверяет, что эта ситуация может измениться. «Конечно, он мал, но мы считаем этот рынок развивающимся. Ждите новостей о нас как в сфере исследований и разработок, так и в сфере продаж и маркетинга. Мы — быстро растущий бизнес, мы рентабельны, и мы считаем, что компании ощущают острую потребность в поиске». Джирард убежден, что Google Mini подхлестнет корпоративный бизнес, так как это устройство адресовано большему числу компаний, которые нуждаются в поиске, но ограничены в средствах. К тому же Google усовершенствовала технологию работы со специализированными базами данных, такими как Oracle. Тем не менее у компании есть несколько конкурентов в сфере корпоративного поиска, включая Fast Search & Transfer, Autonomy и Verity, крупнейшего игрока на этом поле. Многие компании, в том числе Inktomi и Altavista (обе теперь принадлежат Yahoo), уже пытались охватить малые предприятия, но потерпели фиаско. Однако Рамос считает, что со временем Google Mini сможет приносить компании большие доходы. «У конкурентов нет таких глубоких карманов, как у Google, и нет узнаваемой торговой марки», — отмечает она. © ZDNet.ru вернуться к содержанию Google ищет «темное оптоволокно» / Тенденции Планирует ли Google строить новую глобальную оптоволоконную сеть? И если да, то зачем? Данный вопрос возник в связи с недавним объявлением о вакансиях на веб-сайте поискового гиганта, который ищет экспертов в этой области. В частности, в объявлении говорится: «Google приглашает специалистов по ведению стратегических переговоров, обладающих опытом в сфере… выявления, отбора и ведения переговоров по контрактам на темное оптоволокно как в городских сетях, так и для дальней связи в рамках развития глобальной магистральной сети». Темное оптоволокно — это оптоволоконный кабель, который уже проложен, но еще не используется. В США имеются тысячи миль темного оптоволокна, но на него мало охотников из-за высоких расходов по его освоению. Представитель Google отказался развивать эту тему. И все же объявление наводит на некоторые интригующие мысли, в том числе о вероятности того, что компания создает плацдарм для прыжка в телекоммуникационный бизнес. О постинге сообщил веб-сайт Light Reading, наблюдающий за индустрией оптических сетей. Если Google действительно собирается строить собственную глобальную или национальную оптоволоконную сеть, то такой проект должен стоить миллиарды долларов и может занять несколько лет. Большинству компаний трудно было бы оправдать такие инвестиции потребностями собственной корпоративной сети. Обычно дешевле арендовать «светлое» оптоволокно у операторов связи, и этот путь считается более предпочтительным. Однако Google обычно трезво оценивает выгоды в области вычислительной техники: все восхищаются построенной компанией инфраструктурой, основанной на дешевых серверных кластерах. В то же время дотошные наблюдатели давно указывают на видимое несоответствие между потребностями компании в службах и демонстрируемым масштабом ее вычислительных ресурсов. Темные мотивы В последнее время стали набирать силу несколько проектов, связанных с темным оптоволокном, главным образом с участием крупных консорциумов из частных компаний, университетов и медучреждений, иногда при существенной поддержке государства. Наиболее известным из них является национальный проект LambdaRail консорциума Internet2, который через свою дочернюю компанию FiberCo скупил около 28 тыс. миль темного оптоволокна. «Мы своевременно воспользовались моментом», — говорит директор по сетевым инициативам Internet2 Стив Корбато. Телекоммуникационный бум конца 1990-х создал излишки ресурсов оптоволокна, а последовавший за ним спад привел к тому, что неосвоенное оптоволокно оказалось на рынке по бросовым ценам. «Кажущаяся спешка с приобретением этих ресурсов связана с представившейся уникальной возможностью… Сейчас рынок наличного оптоволокна уже движется вверх, и большинство экспертов убеждены, что эти ресурсы будут проглочены». В последнее время Корбато видит признаки растущего интереса к темному оптоволокну со стороны частных компаний, особенно крупных финансовых учреждений. Между тем в декабре кабельный гигант Comcast подписал соглашение на более чем $100 млн о приобретении темного оптоволокна большой протяженности для строительства собственной сети. Корбато отказался обсуждать планы Google. Но сказал, что наличие опыта в области оптоволокна — естественное требование для такой компании, как Google. «Если бы я был ИТ-директором международной информационно-технологической компании, я бы считал наличие подобного опыта само собой разумеющимся для работы в организации». © ZDNet.ru вернуться к содержанию Отзывы про отзывы :-) / Отзывы Отзывы про видеокарты / Отзывы Отзыв №1 Здравствуйте, уважаемый редактор! Хотелось бы сделать несколько замечаний: 1) На тему "Драйверы / Творчество читателей". Я являюсь счастливым обладателем GF4 Ti4200 и у меня наблюдается интересный эффект: драйверы версии 61.77 работают прекрасно, а вот 66.93 не работают вообще, т.е. все игры вылетают в синий экран с сообщением PAGE_FAULT_IN_NONPAGED_AREA. Я только не понимаю - это проблема именно драйверов или что-то другое? Добрый день, Антон. К вопросу о драйверах. Как они ведут себя, если запустить DirectX Diagnostic? Работают ли они в OpenGL приложениях, например, Quake 3? Просто эти драйвера я сам ставил, все работает нормально. Плюс из личного опыта: приносят мне тут машину, с подобной проблемой, не ставятся драйверы и все тут. Хоть тресни. Я все перерыл, все деинсталлировал. У меня на машине ставится, на той нет. Снес Windows, поставил по-новой, не идут. Снес Windows еще раз, поставил со своего дистрибутива, все пошло. В чем проблема? Проблема в том, что большинство программного обеспечения, и та же Windows, в первую очередь у нас в стране нелицензионные, и выпущены разными пиратскими группами. В результате получается, что одна взломана корректно (странная формулировка :)), а другая нет. Проблема так же может заключаться в несовместимости аппаратного обеспечения или каком-либо дополнительном ПО, перехватывающем вызовы системы к драйверу и подменяющем их на свои. И, наконец, проблема, наиболее остро возникающая у нас в России: дабы снизить объем качаемого пользователем дистрибутива некоторые сайты выпускают облегченную "Lite" версию драйверов, в которой не хватает "ненужных" компонентов. Получается, что подобные дистрибутивы запускаются на большинстве машин, но не на всех. Такая вот, простая арифметика. и 2) На тему "Технология S.M.A.R.T. / Творчество читателей". Технология S.M.A.R.T. является очень удобной при прогнозировании выхода из строя винчестера. Но толк с нее есть не во всех случаях. Яркий тому пример - печально известная серия FUJITSU MPG. Винт этой серии накрылся у меня после 3-х лет работы без видимых намеков S.M.A.R.T. (все параметры были в норме, выход из строя намечался на 8-ой год). И так, насколько я знаю, у всех. Так что S.M.A.R.T. - тоже не панацея от всех бед, резервное копирование ничем не заменить. Здесь тоже есть один нюанс. Дело в том, что технология S.M.A.R.T. предназначена, в первую очередь для прогнозирования выхода из строя механической части винчестера. В винчестерах же Fujitsu неработоспособность объясняется не выходом из строя механики, она почти идеальна. Из-за неправильного технологического процесса, при пайке контроллера использовалась смесь, которая при нагреве контроллера начинает химически видоизменяться, в результате под самим контроллером и рядом с ножками, образуется налет, мешающий нормальному функционированию контроллера. Те же самые контроллеры, использовались в винчестерах Samsung, и работают просто отлично. Как решить эту проблему? Если Вы еще не выбросили этот винчестер, то достаточно выпаять микроконтроллер (используется паяльник и прямые руки), удалить образовавшийся налет, и впаять микроконтроллер обратно. Для того чтобы избежать подобного в будущем (к сожалению, смесь не удается удалить полностью), на контроллер крепится радиатор, и, вуаля, все работает. Хотя... как сказал кто-то мудрый "береженого Бог бережет". Поэтому RAID-массив, противопожарная система и несгораемый сейф - наш выбор :) С Уважением, Вася Пупкин-с. Просьба к редактору: не печатайте, пожалуйста, мой e-mail. Заранее благодарен. © Антон Моисеев Отзыв №2 В выпусках №64 и№65 оказалась затронутой тема двух лидеров по производству видеокарт ATI и NVIDIA, мнения читателей оказались интересными, что естественно не могло оставить меня равнодушным. Ходит много споров о том какие же видеокарты лучшие и какие драйвера ставиться без каких-либо проблем. Как водиться мнения разделились, кто-то радует за своего, а кто-то за своего. Но суть даже не в этом, а в том, как же обычному пользователю не сильно разбирающемуся во всяких тонкостях и обозначений сделать свой выбор, тем самым не переплатив и получив лучшее что есть. А выбор здесь оказывается очень сложным. Могу судить только по себе. Вот, к примеру, когда брал свою видюху, не знал практически ни чего, но все-таки стремился к тому чтобы один показатель видеокарты был максимальным - это объем мегабайтов, ведь раньше как было, чем больше мегабайтов, тем лучше и не надо было практически ни на что больше обращать внимание. В итоге мой выбор пал на GF FX5700 LE 256 Mb, 128 bit (на карте наклейка упорно доказывает, что это 256 bit). После покупки прошло уже довольно много времени, и я уже практически разобрался, как и на чем остановить свой новый выбор, хотя данная видюха меня по-прежнему пока полностью удовлетворяет спокойно тянет DOOM 3 и NFSU 2. Но тут в мире игровой индустрии случился очередной прогресс и ATI выпустила X800XT, а NVIDIA свой флагман GF 6800Ultra. Спору нет обе видюхи классные, но пока не слишком доступные из-за своей высокой цены. Но, прочитав много различных статей в разных журналах, было выяснено, что GF 6800Ultra имеет больше 200 мил. транзисторов + два дополнительных источника питания, что в результате выливается в покупку еще более мощного блока питания + ко всему она еще и сильно греется и довольно громоздкая. По многочисленным рекомендациям было принято сознательное решение, что лучше покупать карту рангом по ниже, после чего ее без особых проблем можно будет разогнать до флагманской, значит, берем примерно GF 6800GT 256 MB 256 bit. Но, ознакомившись с характеристиками X800XT: не используются дополнительные источники питания, транзисторы построены на более совершенной технологии, поэтому их менее 200 милл., что соответственно влечет меньшую теплоотдачу, было принято решение остановить свой выбор на ней. После прочтения выпуска №64 мое мнение еще более укрепилось в отношении компании ATI (ну надо попробовать что-то другое). Но тут пришел ответ в выпуске №65 и это произвело на меня эффект разорвавшейся бомбы. Настолько четко и главное понятно было объяснение того, почему все-таки NVIDIA лучше своего соперника. Что теперь я просто нахожусь в смятении и уже сомневаюсь на счет оптимального выбора. Конечно, в статьях не обсуждались какие же все-таки карты лучше, в основном речь шла о драйверах и о том, что получается, от этих драйверов и как это действует на систему в целом. Но и опять вроде уже сделав выбор, снова оказываюсь на распутье. Одна карта грузит процессор, другая использует только свой и не напрягает главный, что лучше?.Одни драйвера не вывозят DOOM 3 и поэтому многие пользователи ATI оказались в замешательстве, вышел H-F 2 теперь немного напрягаются пользователи NVIDIA, конечно гораздо меньше, но все же. Одни карты плохо работаю с изображением, другие хорошо, у одних скорость, у других качество. Опять начинаются споры о том какая карта лучше справляется с новыми версиями пиксельных шейдеров и так дальше и так дальше. Уже хочется сказать ХВАТИТ, остановитесь, дайте людям сделать спокойный выбор. Теперь снова переметнулся на другую сторону. Надолго ли? В общем-то хочется и то и другое, а главное качественное и дешевое. © SpideRus Эволюция графических ускорителей. "Всяк кулик свое болото хвалит". (с) Кто-то Мудрый Война между nVidia и ATi. Противостояние Intel и AMD. Windows против Linux. Каспаров и Deep Blue. Когда это закончится? Наверное, никогда. Почему? Просто потому, что "все познается в сравнении". Когда меня просят порекомендовать что-либо, я, конечно помогаю, но стараюсь понять, что именно нужно человеку? Ведь ту или иную вещь мы покупаем для удовлетворения каких-то конкретных потребностей. Если же человек хочет чего-то непонятного и эфемерного, то даже силиконовая станция за десяток миллионов долларов покажется ему не тем, что он хотел, ведь она такая _осязаемая_, а ему хотелось чего-то эфемерного :) Поэтому вместо того, чтобы рекомендовать что-то конкретное, мне проще объяснить человеку, чем одна вещь отличается от другой, а выбор он пусть делает сам. "Я покажу тебе лишь путь, пройти по нему ты должен сам". Хотя, глядя со стороны на эти противостояния, не могу не признаться, что я рад подобной "гонке вооружений", ведь здоровая конкуренция делает товары дешевле для потребителя, толкает фирмы-производители на совершенствование технологий, разработку новых программ и т.д. Кто от этого выигрывает? Конечно же мы с вами, рядовые пользователи. И чтобы проще было определиться с конечным выбором предлагаю ознакомиться с эволюцией видеокарт, начиная от простых, не обладавших функциями 3D-акселерации и заканчивая последними шедеврами индустрии. Итак, вначале видеокарты предназначались только для вывода 2-мерных изображений, вывод производился путем записи информации в кадровый буфер. Т.к. память на видеокарте была медленнее, чем оперативная память компьютера, то выгоднее было сформировать все изображение используя CPU + системную память, а потом отправить все это на видеокарту. Подобный метод использовался в Doom и более позднем Quake 1 (более ранние игры, рассматривать смысла не имеет, т.к. они весьма похожи). Подведем итог: используется связка CPU (Central Processing Unit - центральный процессор компьютера) + системная память (далее просто память) -> передача информации по шине PCI -> видеокарта (в основном видеопамять). Вся работа по формированию изображения проводится на CPU, видеокарта же фактически не используется. Выход Quake 2 и других игр, показал, что такое аппаратная акселерация. В принципе, аппаратная акселерация существовала довольно давно в профессиональных системах типа Silicon Graphics или Sun, на рынок персональных машин подобные технологии не могли выйти ввиду своей дороговизны. Однако компания 3DFx сделала практически невозможное, они, выпустив 3D-акселераторы Voodoo Graphics, смогли сделать их весьма популярными (заслуга Quake 2, в первую очередь, и Джона Кармака естественно), благодаря чему больше фирм стали использовать возможности аппаратного ускорения в своих приложениях, что, естественно, подтолкнуло пользователей к покупке акселераторов и т.д. Итак, что мы видим на этом этапе: сцена по-прежнему формируется, используя связку CPU+память, однако текстуры на полигоны наносит не процессор, а специализированное устройство - 3D-акселератор (тем более тогда он мог работать только вместе с видеокартой, в ускорителях Voodoo был специальный кабель для этого). Появляется возможность сглаживания текстур (чтобы они смотрелись более приятно, был менее заметен эффект "выпадения пикселов" из-за неточной подгонки координат текстуры). Здесь же хотелось бы отметить, что фирма 3DFx дабы привлечь богатых пользователей жаждущих большей скорости добавила в свои акселераторы режим SLI, т.е. в машину вставлялось 2 акселератора (они имели PCI-разъем), в результате скорость обработки изображения возрастала почти в 2 раза, но только в том случае, если приложение использовало мультитекстурирование (Quake 2, например), и в то время как один акселератор наносил одну текстуру на полигон, второй наносил на него вторую. Вопреки сложившемуся мнению, объем видеопамяти не увеличивался, т.к. ввиду архитектурных особенностей самого режима SLI копию текстуры приходилось хранить в обоих акселераторах. К чему я вспомнил про режим SLI? Дело в том, что после перехода на AGP-порт, который на материнской плате один, многие позабыли об этом режиме, и тех возможностях, которые он дает, в настоящее же время, после появления шины PCI-Express, о нем снова вспомнили, и компания nVidia (в которой теперь работает большинство сотрудников 3DFx) уже сегодня предлагает решения на базе технологии SLI. Следующим большим шагом по направлению к визуальной эйфории стал наделавший много шума процессор GeForce 256 от nVidia, который по сути и забил последний гвоздь в гроб благополучно скончавшейся к тому времени 3DFx. Как говорится, король умер - да здравствует король. Основными причинами, приведшими nVidia к победе, было то, что компания уже тогда готовила новые технологии, вместо того, чтобы накручивать старое железо. Основной революционной технологией в данном видеопроцессоре помимо его 256-битности было присутствие блока Transforming & Lighting (аппаратной трансформации и освещения). Что же такого революционного скрывалось в таком блоке? На самом деле, очень и очень многое. Посмотрим на простой пример. Вид из глаз, на нас идет монстр, радостно потирая руки. В это время CPU перемещает полигоны, из которых состоит тело монстра, в пространстве, совершая кучу математических операций. Можно ли переложить эту работу на GPU? Конечно можно, в GeForce 256 эта работа и была переложена на плечи видеопроцессора (тот самый блок TnL). Туда же, в нагрузку, была прикручена аппаратная обработка источников света (до 8 источников, остальные будут обрабатываться программно), однако в большинстве игр, даже современных, данная возможность (по аппаратной обработке источников освещения) не используется, вместо этого для реализации источников света используется lightmap, т.е. просто текстура. Что мы видим на данном этапе: все тоже самое, что и на предыдущем, за одним исключением, теперь часть математических операций производится на видеочипе, за счет чего разгруженный CPU предоставляет разработчикам больше ресурсов на реализацию, скажем, AI компьютерного противника. Здесь еще также стоит отметить, что первой компанией, анонсировавшей аппаратный TnL, была вовсе не nVidia, а S3 (S3 анонсировала свою технологию на день раньше, чем nVidia), однако, видеочип от nVidia более сбалансирован и технически совершенен, поэтому я и привел именно его, а не чип от S3 (тем более что появился он все же раньше, чем агрегат от S3 :)). Тут сразу же хотел бы отметить, что S3 также придумала и реализовала технологию аппаратной компрессии текстур (S3TC - S3 Texture Compression), которую впоследствии лицензировала Microsoft и другие крупные компании, а Matrox хоть и редко, но все же радует своих поклонников очень качественными технологиями в своих видеочипах, например 16x FSAA, однако в большинстве случаев, мы выигрываем не от того, что в чипе применена та или иная инновационная технология, а от суммы всех технологий, заложенных в нем. Об этом, я еще раз повторюсь ниже. Продолжим. Следующим большим шагом, является появление в видеочипах вершинных и пиксельных шейдеров (vertex and pixel shaders). Сразу поясню - шейдер, это аналог обычной программы для компьютера, но только в ней содержатся инструкции, обращенные не к CPU, а к GPU. Что нам это дает? Это очередной технологический шаг, позволяющий еще больше разгрузить CPU (а также шину данных (AGP, PCI-Express)) и перенести множество задач на видеочип, который справится с ними лучше, чем CPU. Многие интересуются, почему GPU справляется со многими проблемами лучше чем CPU? Все дело в крайней специфичности и направленности видеочипа. Он как узкий специалист - разбирается хорошо, но только в своей области, а CPU - вроде как мастер на все руки, но разбирается меньше. Естественно, получается, что GPU пока не может выполнить все задачи, которые хотелось бы на него переложить, зато с теми, что на него переложены, он справляется много лучше, чем CPU. Теперь конкретнее о том, какие преимущества дает нам применение шейдеров в компьютерной графике. Пример: мы стоим на берегу океана, и перед нами простирается бескрайняя водная гладь. Что происходит в этом случае? Сцена генерируется на CPU, затем выполняется пересылка данных сцены (океана) на видеочип. Через определенный момент времени CPU считывает информацию о сцене из памяти, сдвигает вершины в объекте "океан" эмулируя движение волн + запись данных обратно в память, и отправляет данные на видеопроцессор, и так продолжается до бесконечности. Однако мы можем применить простейший вершинный шейдер, и ситуация изменится в корне. Технически это будет выглядеть так: при загрузке процессор отправляет на видеокарту информацию об объекте "океан" и вершинный шейдер и... все!!! Теперь вместо того, чтобы каждый раз пересылать информацию об объекте "океан" нужно просто отправить запрос на выполнение вершинного шейдера и видеочип сделает все сам! А в результате мы получаем колоссальный прирост в производительности, разгрузку CPU, разгрузку шины + освобождение памяти. И все благодаря тому, что данные не надо гонять туда-обратно - видеочип берет все на себя. Конечно, сложные эффекты, как, например, взрыв, с разлетом осколков объекта и последующим расчетом траектории их движения с учетом столкновений, гравитации, давления воздуха и температуры пока не по зубам GPU, но то время, когда он сможет "потянуть" все это - уже не за горами. Пиксельный шейдер - это тоже программа для GPU, только управляет она уже не вершинами полигонов, а отдельными пикселами, позволяя разработчикам создавать очень красивые эффекты, реалистично отображать материалы (такие как кожа, шелк, дерево, шерсть и т.д.), помогает сделать так, что лист на дереве будет похож на лист, а не на кусок бумаги, а главный противник порадует нас реалистично выглядящей бородой. Ведь для чего я покупаю распоследнюю видеокарту? Я хочу увидеть виртуальный мир во всей его красоте, хочу чтобы меня пугали и мне было страшно, в общем, хочу поверить в то, что мир за экраном монитора - реален. В этом месте, думаю, пора вернуться к вопросу сбалансированности железа. Итак, представим себе "производственный процесс" происходящей в какой-нибудь среднестатистической игре. Процессор подготавливает сцену и отправляет ее на видеокарту. Скорость вывода зависит от того, насколько быстро процессор подготовит необходимые данные. Дальше сцена попадает через шину на видеокарту. Тут тоже важна скорость самой шины. Некоторые, глядя на скорость шины AGP - 800 Мб/сек, или 1,5 Гб/сек думают, что это "за глаза", но спешу огорчить - это очень и очень мало. Дабы не быть голословным приведу простой пример: имеется сцена в 100,000 полигонов, в область видимости попадают 50 текстур каждая размером 512х512 в 32-битном цвете. Посчитаем, сколько будут занимать текстуры: 512*512*4 - 1048576 байт, т.е. одна текстура в памяти занимает 1 мегабайт. Мы их видим 50. Вроде бы 50 Мб и 800 - несравнимая цифра :) Однако, добавим сюда скорость в кадрах в секунду, скажем, 100 FPS и мы уже имеем 5 Гигабайт информации, которую надо успеть прогнать через шину. Нехило, правда? За счет чего же удается сократить этот поток информации? Во-первых, используется так называемый mip-mapping, т.е. если мы видим текстуру на расстоянии 1 метра в "полный рост", то через 10 метров, она будет нам казаться меньше, через 100 еще меньше и т.д. Поэтому для каждой текстуры подготавливается копия в 2 раза меньше оригинала, в 4, в 8 раз и т.д. И максимальная информация (скажем 1 Мб для одной текстуры) проходит только для близлежащих текстур, для остальных же, расположенных дальше, передается намного меньше информации. Во-вторых, используется сжатие текстур на стороне CPU+память, используя один из алгоритмов сжатия, например S3TC, о котором я уже говорил, а на стороне видеокарты, информация о текстуре восстанавливается. Плох этот метод тем, что сильно портит некоторые текстуры, однако если разработчик определит какие текстуры надо сжимать, а какие - нет, то в результате конечный пользователь может и не заметить (на глаз) разницы при использования сжатия и без него. Наконец сцена достигла видеокарты. Все данные переданы. Начинается изменение геометрии с использованием вершинных шейдеров и блока TnL, после этого на подготовленные полигоны наносятся текстуры, с учетом фильтрации текстур (используются текстурные юниты - TMU), и производится расчет попиксельного освещения и изменения начального цвета пиксела при помощи пиксельных шейдеров. Вроде бы все - сцена готова, но нет. Перед выводом ее на экран, мы наносим последний штрих, производя полноэкранное сглаживание получившегося изображения (FSAA). Вот теперь все - сцена готова к тому, чтобы быть показанной пользователю, и она отправляется в back-buffer или прямиком на экран. К чему я все это так расписал? К тому, чтобы вы поняли - вывод сцены довольно сложный и громоздкий процесс, и участвует в нем не один и не два, а несколько десятков блоков, взаимосвязанных между собой. И весь вопрос заключен в балансе - сумеет ли один конвейер подготовить данные для другого, следующего за ним, или станет именно тем узким местом, которого будут ждать все. Приведу один пример, про который рассказал Джон Кармак (это ведущий программист Id Software, автор движков к небезызвестным Wolfenstein, Doom 1/2, Quake 1/2/3, Doom 3). Итак, вот его рассказ (урезанный правда, но сути это не меняет): "При написании графического кода к Doom 3 я использовал самые последние на тот день технологии. При разработке, я ориентировался на GeForce 3, т.к. на тот момент она была самой мощной видеокартой из доступных на рынке. Через несколько недель ATi прислала мне тестовый вариант своей видеокарты Radeon 8500, и она оказалась лучше, чем GeForce 3. Ситуация обстояла так, что по своим параметрам игровая сцена была довольно комплексной, т.е. если ранее на полигон наносилась просто текстура и карта освещенности (lightmap), то в Doom 3 к ним прибавились bumpmap, projector-map, карта отражений, cubemap и т.д. Итого - 6 текстур, наложенных одна на другую. GeForce 3 могла накладывать лишь 4 текстуры за один проход, и в результате сцену приходилось выводить за два прохода (в первый проход 4 текстуры и за второй еще 2). Radeon же могла накладывать 6 текстур за один проход, в результате вывод ускорялся почти в 2 раза, т.к. сцена строилась в один присест (реальный прирост в скорости был чуть больше 75%). С воодушевлением, я запустил тест, который был близок к тому, что игроки должны были увидеть в финальной игре. Это была комплексная сцена, содержащая около 200,000 полигонов. Честно говоря, скорость ее работы на GeForce меня не удовлетворяла, на Radeon же должен был быть совершенно другой результат. Запустив этот тест я несколько минут сидел ошарашенный. Я запустил тест еще и еще раз, но результат не менялся, скорость вывода была НИЖЕ, чем у GeForce 3...". Тут я позволю себе прерваться. Потому что, пример, по-моему, говорит сам за себя. ATi, погнавшись за количеством одновременно накладываемых текстур, не сбалансировала остальные конвейеры, в результате получается, что в разных тестах, карта ведет себя по-разному. То же самое относится и к последней X800Pro - карта уступает GeForce 6 GT во всех тестах, за исключением тестов со включенной анизотропной фильтрацией+FSAA на заоблачных разрешениях. Но я играю не на экране кинозала, поэтому мне такие разрешения не нужны. Баланс - это именно то, за что я уважаю nVidia. Надеюсь, что ATi, рано или поздно добьется такого же качества, и мы с вами не будем спорить лучше чья-то видеокарта или хуже, а будем просто играть или работать, наслаждаясь великолепным качеством картинки без каких-либо намеков на торможение. P.S. И как сказал кто-то Мудрый - "Не бросайся в крайности, найди золотую середину". С Уважением, Вася Пупкин-с. Просьба к редактору: не печатайте, пожалуйста, мой e-mail. Заранее благодарен. И на закуску отзыв автора столь противоречивой статьи. Отзыв кстати очень даже миролюбивый :-) А) Предупреждение: весь ниженаписанный бред является личным мнением автора, и не претендует на ясность и полноту изложения. Б) Некоторые читатели, прочитав предыдущий отзыв и увидев этот, начнут радостно потирать руки, в предвкушении фразы "and let the combat begins..." :) Но, битвы не будет. И на то есть, как минимум 3 причины: 1) Стар я стал для подобных перепалок. Стар и ленив. 2) У меня есть правило: не бить женщин, детей и слабоум... Ладно, считаем, что только женщин и детей :) Прочтя отзыв на отзыв, я понял, что автор, пишущий под ником "Восьмое небо", относится к одной из этих категорий. В принципе, я мог бы обосновать, почему я так подумал, но понимаю, что это заденет моего оппонента, поэтому промолчу. 3) Я уважаю людей, которые стремятся вперед. Которые несут информацию людям, пусть ошибочную, но она вселяет в людей надежду, что еще будет свет в конце тоннеля. Людей, которые падают, встают, и идут снова вперед. Ведь без движения, не было бы жизни. В) По поводу аргументации и прочего. Информацию, полученную откуда-либо в первый раз, человек привык считать единственно верной, если она не вступает в конфликт с информацией, полученной им ранее. Однако информация, полученная на личном опыте, может оказаться отличающейся от той, которую человек получил ранее, происходит ломка сложившегося стереотипа. Мораль сего высказывания такова: не все то правда, о чем вам говорят. Даже если это говорят тысячи человек вокруг. Вспомните, было время, когда люди считали, что земля покоится на трех слонах, которые стоят на ките и т.д., было время, когда за высказывание что земля вращается вокруг солнца, а не наоборот, вас могли сжечь на костре, было время, когда за критику в адрес ATI... но, кажется, я увлекся :) Так вот, есть такое выражение "доверяй, но проверяй" или "лучше один раз увидеть, чем сто раз услышать". Поэтому приведу один из примеров, полученных на личном опыте и говорящих не в пользу ATi. Года два с половиной назад, была у меня карточка Radeon 8500. Попала ко мне по одной простой причине - я тоже повелся на сказки ATi о новых технологиях, меньшем тепловыделении, чем у GeForce и прочему. Тому был наглядный пример, в то время на GeForce 3 стояли радиаторы на всем, процессор, память, все было оснащено радиаторами, а на 8500 их не было. Я посмеивался над знакомыми, до того времени пока не воткнул эту железку в свой компьютер. И поехало - "если видишь в небе люки - у тебя наверное", нет, не глюки, а Radeon 8500 :) И куда бы я ни ткнулся, со всех сторон мне пели - это проблема драйверов, это криворукие программеры, это они во всем виноваты. Этой песне я верил до тех пор, пока один умный человек не порекомендовал мне приклеить радиаторы на память. Каково же было мое изумление, когда бОльшая часть глюков исчезла. Думаю, продолжать бессмысленно. Теперь отвечу на все возникшие вопросы. прочитал последний номер смеялся долго :)) как меня там порвали ооооо:) Хочу сразу заметить. Порвать человека не так-то просто. Ранее для этого использовали несколько лошадей с одной стороны, и несколько лошадей (или дерево) с другой. Физически я на это не способен :) По поводу смеха, я рад, что рассмешил автора, и надеюсь, читателей, потому что доказано, что здоровый смех улучшает самочувствие и т.д. + известная поговорка "минута смеха добавляет год жизни". во первых :) я же сказал что прочитал статейку и все , а они так меня рвать:) Я был один. А то повешают еще групповое "рвение"...ммм..."рвание"??? :) Я разрабатыванием дров для видюх не занимаюсь , если уважаемый ответчик занимается то мог бы привести примеры. Во-первых, попрошу отметить заниженную значимость семьи Пупкиных, а особенно Василия Пупкина (ИМХО, значимость даже большая чем Василия Теркина) для российского народа, и применять слово "многоуважаемый". Во-вторых, мы не в суде, поэтому я не ответчик, а, в крайнем случае, оппонент. (Хотя ощущение, что к стенке приперли, все же осталось :)) сплошные сообщения в стиле Ну и зря, товарищ, очень зря, что вы не зрите в корень. Ведь более ВАЖНО понять ПОЧЕМУ тот или иной процессор производительнее, прежде чем делать выводы. Потому что не поняв ПОЧЕМУ, Вы можете в один прекрасный момент обнаружить совершенно другой результат теста, и выяснить, что узкое место было не ПРОЦЕССОР/ВИДЮХА, а, скажем ПРОЦЕССОР/ПАМЯТЬ :)) мог бы привести кокретную информацию а не орать , конкретные тесты По поводу "орать". Если многоуважаемый оппонент воспринимает слова, написанные в ВЕРХНЕМ РЕГИСТРЕ, как виртуальный крик, что ж, он сильно ошибается. Таким методом, я просто ПОДЧЕРКИВАЮ, важное высказывание, основную СУТЬ, которую мне хотелось бы, чтобы он понял. ХОТЬ ЧТО - ТО!. Я же просто хотел поинтересоваться ПОЧЕМУ видюха в ХАЛЯВе СТАЛА ХУЖЕ ОТОБРАЖАТЬ ВОДУ если в 45 использовались все ее возможности? я писал в фидо и НИКТО не дал мне вразумительного ответа , я слышал лишь что халява ЗАТОЧЕНА под 6х, а как так никто не сказал:)) Хорошо. Цитирую: 'переставил 61 на 45 , запустил Халявку 2 и что я вижу????"Вода которая была так хороша , стала грязной и не красивой (ну не такой уж и не красивой что- то типа как в моровинде ) вообщем потеряла свое великолепие, хотя на глаз прирост вроде как был:-)))'. Вот что я понял из всего этого: при переустановке драйверов с 61-й версии на 45-ю (downgrade), автор заметил, что вода в HL2 стала смотреться хуже, а скорость (количество кадров в секунду) выросла. Хотя конечно по поводу количества кадров в секунду вопрос спорный, ведь автор не указал, что именно у него выросло, цитирую "на глаз прирост вроде как был" :) больше всего мене непонравилось Опс! Первый вопрос. И с чего это вдруг FX "попала в лужу"? "Ати обошла ее и обходит до сих пор" ПРИЧЕМ ТУТ ПРОИЗВОДИТЕЛЬНОСТЬ??? Нвидевски фыксы хуже работают чем у ати радеоны , и это видно по многим тестам (это и смытость пикселей в далеке была наглядна показана в тестах журнала гаме ехе в крутом сэме ) ВОобщем ничего конкретного он не привел , а лишь орал . Про игру "Крутой Сэм" (Serious Sam), автор вспомнил вовремя. Ведь это игра, которая создавалась в сотрудничестве с ATi, и одна из первых игр, поддерживающих ее технологию ATi TruForm, однако в тестах, она ведет себя довольно странно, причем не в пользу ATi, и это, заметьте, на ВСЕХ чипах от ATi, включая самый распоследний X800Pro с лучшими драйверами от ATi. у ATi в скорости, за счет инновационных технологий, авторы подобных статей скромно говорят - ЭТО, мол, проблема в драйвере, в будущей версии ее устранят. Сколько можно устранять-то? Это случается только потому, что в погоне за производительностью, ATi готова пойти на все. :))) а вот это смешно :)))) дрова для ати уже давненько работают нормально (это я как подписчик su.game говорю) с нфс2 ундеграунд у нвидевцев были глюки когда атишники гамали без проблем. Свежо предание, да верится с трудом. Зато на ум легко приходит недавняя проблема дружбы Radeon 9200 и Far Cry. Ну не работает она и все тут. Выход - поставить версию драйверов постарее и все заработает. (из личного опыта). По поводу Need For Speed: Underground 2 - что-то я никаких глюков не припомню, все ездило без проблем... может, не заметил чего? ДорОга мне не понравилась с первого взгляда, но красота к ней вернулась после установки принудительной анизотропной фильтрации в настройках драйвера... Вообщем я глубоко не углублялся в это тк это немножко не мой уровень знаний (сравнивать драйвера нвидии и ати - наверное у госпадина пупкина именно такой:) ) да и железки я не паяю - просто написал то что происходит в обывательской жизни , а не на стендах и тестах у различных издании. Уважаемый Артем в следующий раз (я уже обращался ) ну не стоит печатать статьи непотвержденные фактами Тут обращаются ко мне, поэтому по ходу немножко отвечу. А чтобы Вы не запутались я буду таким цветом писать. Согласен конечно, но Василий Пупкин именно на отсутствие фактов и сослался. Поэтому не печатать статьи без фактов слишком строгое требование. Ведь для кого-то что-то является фактом, а для кого то нет. ведь если бы меня тыкнули мордочкой - " вот это и это неправильно потому что это на самом деле так и так - вот там то написано " Повторюсь - "лучше один раз увидеть..." а тут сплошная балталогия. Наверное пупкина надо послать к Ати и он бы им показал как надо:)) Не взяли, нужна канадская прописка :( А еще в России фамилии и имена собственные принято писать с Большой Буквы :) я же все что написал потдвердил (насколько помню ) изданиями где ЭТО написано ( такой журнал как ЧИП ахинею нести не будет) Вот и первая нестыковка. То что так кто-то напечатал не делает что-то фактом. На днях узнал, что некоторые медицинские журналы в свое время писали о том, что курение полезно. Ну, например, улучшает пищеварение и т.п. Публикация кем бы то ни было чего бы то ни было не делает ЭТО фактом. Вообщем его оскорбления в мой адрес мне не очень - то нравятся Во-первых они никому не нравятся. Во-вторых не обязательно их считать оскорблениями. Критикой возможно, но не оскорблениями. очень прошу ну не надо публиковать такое ( если там небыло подтверждения что я не прав) В Вашей статье не было подтверждения, что правы Вы. Поэтому Вы прислали одно мнение. Он другое. Я оба опубликовал. Ну не обязательно же им совпадать. вы знаете, каким образом "создается" такая вода? Тут как говорится "либо шашечки, либо ехать". Если где-то что-то убыло, то где-то что-то прибыло. Или нынче в школе такое не преподают? ээээ это вообще к чему ??? было??? Поясняю, (цитировать не буду), скорость выросла, качество упало. Т.е. здесь выросла - читай "прибыло", а упало - читай "убыло". По поводу того, что в одной версии драйверов вода смотрится лучше, а в другой хуже, могу пояснить. Все просто - HL2 использует шейдеры версии 2.0, в результате некоторые инструкции шейдера могут не запускаться на старом железе, тогда игра сама заменяет шейдер на другой менее красивый или менее быстрый (GF Ti4200 не поддерживает шейдеры 2.0). Однако возможна их эмуляция, не всех и не полная, на старом железе, на стороне драйвера. Например, наш процессор умеет складывать, но не умеет умножать. В результате мы можем эмулировать операцию умножения, т.е. вместо 2*2, мы можем написать 2+2, а вместо 2*3 - 2+2+2 и т.д. А вот деление таким способом мы эмулировать не можем. Так же и с драйверами - в новой версии присутствует частичная эмуляция шейдеров более высокого уровня, чем те, что может предоставить железо. Поэтому и качество картинки меняется, со всеми вытекающими отсюда последствиями. понятно баба с возу кобыле легче смысл я понял , а вот ЗАЧЕМ он это сказал нет:) от семы разрешения ресурсоемкость приложения тоже понизится - при чем тут дрова - то?? Опять попал пальцем в небо. От смены разрешения не изменится практически ничего. Ведь искусственный интеллект, физика и прочие обработки будут продолжать также нагружать процессор. Изменится только нагрузка на видеокарту и мост AGP-CPU. Прим. видеокарту я не отношу к приложению, т.е. не смешиваю понятия hardware и software :) Эту стать. я написал что бы узнать большее и спросить у читателей , а не читать такое :( Вот это действительно важно. И об этом и надо говорить. Не всегда это замечается сходу. В конце концов лучшей критикой будет более интересная статья. "Восьмое небо" ведь старается, пишет, творит. Не всегда получается идеально, так это всегда бывает. Кто пишет идеальные статьи пусть первым пришлет ее мне на почту (mobio@yandex.ru) :-) Пожелание "Восьмому небу": дружище, не принимай близко к сердцу все вышесказанное (цитирую "бред" :)), за исключением тех фактов, которые тебе так нужны. Как сказал кто-то мудрый "истина рождается в споре", хотя я слышал, что "истина в вине"... на дне :) P.S. Если ты все еще расстроен, то я хотел бы рассказать одну историю. По миру шли двое - Учитель и Ученик. И вот они подошли к реке, которую можно было пересечь только вброд. На берегу реки стояла женщина, которая хотела попасть на другую сторону реки, но боялась замочить ноги. Учитель взял ее на руки и перенес на другой берег. После этого они с Учеником продолжили свой путь. Через несколько дней Ученик спросил у своего Учителя: "Учитель, ведь мы не имеем права даже смотреть на женщин, а ты ее перенес...", на что Учитель ответил: "Я оставил эту женщину на том берегу реки, а ты до сих пор несешь ее с собой". Думаю, ты все правильно поймешь. P.P.S. А еще я тут вспомнил одну фразу: "в нем есть этот... как его... потенциал". Так что успехов, тебе, дружище! С Уважением, Вася Пупкин-с. Технология LaGrande От Intel / Творчество читателей Hа днях прочитал интересную статейку и решил узнать , ваше мнение Технология LaGrande От Intel Яркими примерами общераспространенных уязвимых мест современного ПК являются : Экран пользователя , когда ПО взломщика через доступ к кадровому буферу видеокарты прослеживает то , что видит пользователь. Использование защищенного раздела ЛаГранде обеспечивает предохраение графической информации , делая ее невидимой для хакерского ПО- перехватчики информации. Пользовательские устроиства ввода, когда взломщик получает доступ к данным , воодимые через клавиатуру и мышь. В результате злоумышленник знает , что вводит в компьютер пользователь . Защищенный канал связи с клавиатурой препядствует подглядыванию . Оперативная память компьютера , когда злоумышленник использует привилегированный режим процессора (RING 0) и получает доступ к настройкам, данынм , паролям. Защита памяти , обеспечиваемая ЛТ , не позволяет неавторизованным приложениям читать или изменять защищенные страницы памяти. Дальше грузить не буду если интерессно то можете и в инете почитать или в Чип от февраля 2004 :) (оперативные данные :) ) Будет эта шняга в Prescott процессорах после пней 4 . 2-3 года на разработку. А терь Имхо:) Обещали это в ручки пользователей по началу не давать , но скорее всего наверняка технология будет востребована . Мне кажется , что дырочку всеравно найдут и будут активно исспользовать . Ось то и пропатчить можно , а вот с пропатчивание железки это уже вилы. :) жирные дядки будут сидеть и свято верить в свою защищенность. Когда на самом деле их будут иметь и иметь . Вот попробуйте ка блондинку заставить патчь себе на винду скачать и устаноить тот же в lsass.dll вот вот а про железки уж и подавно:) Головы надо патчить, а не железо новое придумывать. Читал я читал... И почему мне так хочется поспорить с Восьмым небом? И я понял почему. Странный у него взгляд на жизнь. Вот возьмем, например, фразу "дырочку найдут и будут активно использовать". Да, согласен. Человеку свойственно ошибаться. Да, человек допускает ошибки. Но благодаря ошибкам были сделаны многие великие открытия. Многому из того, что человек имеет сейчас, он обязан своей способности ошибаться. Человек придумал себе отличных помощников - машины. Благодаря им он стал сильнее, быстрее, смог сделать многое из того, что не смог бы никогда. Не копаем ли мы могилу самим себе, создавая такое? Не знаю. Я ведь живу только один раз, в отличие от некоторых товарищей, которые, судя по всему, прожили уже несколько. Быть плохим и "иметь и иметь" - это ведь так весело и приятно. Лучше чем быть добрым и помогать людям. А по поводу "головы патчить"... Попробуй вкалывать по 14-16 часов в день без выходных в течение хотя бы года. А потом постарайся не допускать ошибок, пока начальство будет тебя "иметь и иметь" :) P.S. Ну и напоследок: "У одного хакера спросили: ты ведь самый крутой хакер, сможешь ли ты взломать любую программу? На что он без промедления ответил - конечно, смогу. А написать такую программу, которую ты не смог бы взломать? - Нет. Ведь это я ее напишу, и буду знать обо всех ее сильных и слабых местах". Так что, получается, ломать - не строить, господа кулхацкеры :) С Уважением, Вася Пупкин-с. Просьба к редактору: не печатайте, пожалуйста, мой e-mail. Заранее благодарен. © читатель вернуться к содержанию Руководство по очистке жесткого диска / Творчество читателей Это руководство для тех, у кого небольшой винчестер (<80 Гб) и на нем хронически не хватает места. У меня был винчестер 20 Гб серии Fujitsu MPG (который полетел), и я прекрасно умещался на нем благодаря некоторым знаниям. Я попытался их изложить максимально широко в этом материале. Насколько это получилось – судить вам. Итак, приступим. Желательно выполнять пункты по порядку. Примечание: данное руководство ориентируется на Windows XP, но если у вас другая операционка – смотрите, что вам подходит. Этап 1. Предварительные процедуры Шаг 1. Проверка диска Прежде всего стоит проверить жесткий диск на наличие ошибок. Быть может, проблема всего лишь в неправильной записи о размере свободного места. Примечание: Это касается прежде всего файловой системы FAT32 (FAT16, FAT). Если вы пользуетесь файловой системой NTFS, система транзакций надежно защитит вас от такого рода проблем. (Узнать файловую систему можно в свойствах раздела жесткого диска – С:, D:, E: и т.д.) В любом случае, не мешало бы сделать хотя бы обычную проверку жестких дисков. Как это сделать: 1. Пуск -> Выполнить -> cmd. 2. В открывшемся окне введите “chkdsk c:” (без кавычек) и подождите результата. Затем повторите проверку для других разделов жестких дисков. Чтобы включить автоматическое исправление ошибок, добавьте “/f”. Для описания возможностей процедуры chkdsk введите “chkdsk /?”. - или - Пуск -> Мой компьютер -> Диск С:, D:, E: и т.д. -> Свойства -> Сервис -> Выполнить проверку -> Запуск Этап 1. Предварительные процедуры Шаг 2. Очистка диска Для первоначальной очистки от мусора используйте утилиту Windows “Очистка диска”. Как это сделать: Пуск -> Выполнить -> cleanmgr - или - Пуск -> Все программы -> Стандартные -> Служебные -> Очистка диска Этап 2. Удаление Шаг 3. Ненужных файлов Удаляем самостоятельно горы ненужных файлов. Примечание: Удаляйте только те файлы, которые вы сами создали или скопировали (программы нельзя так удалять!). Как это сделать: Советую делать это в Total Commander («Windows Commander» называется «Total Commander» начиная с 5-ой версии) следующим образом: 1. Конфигурация -> Настройка -> Экран -> Сортировка каталогов -> Как файлов (также и по времени) 2. Ctrl+F6 (Вид -> По размеру) 3. Ctrl+\ (корневой каталог) 4. Shift+Alt+Enter (подсчет размера каталогов) и подождать 5. Просматриваете самые большие файлы и по возможности удаляете 6. Просматриваете самые большие каталоги. Чтобы понять, почему они такие большие, заходите внутрь и возвращаетесь к пункту (4). И вообще стоит навести идеальный порядок. Этап 2. Удаление Шаг 4. Ненужных программ Удаляем самостоятельно ненужные программы. Как это сделать: 1. Пуск -> Панель управления -> Установка и удаление программ 2. Сортировка -> Размер 3. Прежде всего просматриваете самые большие программы (сверху), а также программы, размер которых не определён (снизу). Если что-то не надо -> выделяем и удаляем 4. Просмотрите большие программные пакеты. Возможно, возле кнопки «Удалить» будет кнопка «Изменить». В этом случае можно удалить множество компонентов программы, которыми вы не пользуетесь 5. Нажмите «Установка компонентов Windows» 6. Снимите галочки с тех программ, которые вам не нужны. Некоторые пункты являются вложенными, для их просмотра нажмите кнопку «Состав». 7. Нажмите «Далее». Этап 2. Удаление Шаг 5. Дубликатов Удаляем файлы, существующие на диске два и более раза в разных каталогах. Примечание: удаление не стоит делать, если дубликаты были сделаны специально, например, для более надежной сохранности данных (backup). Как это сделать: 1. Запускаем Total Commander 2. Alt+F7 (Команды -> Поиск файлов) 3. Место поиска -> Диски -> Все локальные -> OK 4. Дополнительно -> Поиск дубликатов 5. По имени, По размеру, По содержимому – это по желанию, но имейте в виду, что дубликаты могут быть с разными именами; а файлы, у которых совпадают имя и даже размер – не обязательно дубликаты. 6. Начать поиск 7. Файлы – на панель 8. Если вы уверены, что нашли дубликат, удаляйте (n-1) из n файлов, разделенных штриховкой Этап 2. Удаление Шаг 6. Временных файлов. Многие программы во время работы создают временные файлы в каталогах, указанных ниже. Но перед своим закрытием они часто забывают их удалять. Если у вас не открыта ни одна программа, можете смело удалять временные файлы – они никому не нужны. Как это сделать: 1. Включите режим отображения скрытых и системных файлов a. В Total Commander: Конфигурация -> Настройка -> Экран -> Отображение файлов -> Показывать скрытые/системные файлы b. В Проводнике: Сервис -> Свойства папки -> Вид -> Дополнительные параметры -> Скрытые файлы и папки -> Показывать скрытые файлы и папки. 2. Пуск -> Панель управления -> Система -> Дополнительно -> Переменные среды 3. В списке «Переменные среды пользователя для…» запомните путь TEMP 4. В списке «Системные переменные» запомните путь TEMP 5. C помощью Total Commander или Проводника удалите все содержимое этих двух папок. В среднем можно очистить: нескольких сотен Мб. Этап 2. Удаление Шаг 7. Временных файлов Интернета При работе в Интернете в папке «Temporary Internet Files» остаются просмотренные Web-страницы. Это позволяет быстрее загружать страницы в следующий раз, а также просматривать их в режиме offline (после отключения от сети). Для папки «Temporary Internet Files» установлено ограничение максимального размера. Чтобы освободить место, вы можете уменьшить лимит размера или просто однократно удалить содержимое этой папки. Как это сделать: 1. Пуск -> Панель управления -> Свойства обозревателя -> Временные файлы Интернета 2. Для однократного удаления содержимого папки нажмите «Удалить файлы» 3. Для уменьшения лимита размера папки нажмите Параметры -> Папка временных файлов Интернета -> Занимать на диске не более: и установите столько, сколько хотите. В среднем можно очистить: нескольких сотен Мб. Этап 2. Удаление Шаг 8. Файлов удаленных программ Некоторые программы во время деинсталляции забывают удалить часть своих файлов и записей реестра. Реестр вы можете очистить с помощью программы Regedit (но это вряд ли освободит много места). Файлы удаленных программ могут быть раскиданы по разным каталогам. Все, что от них осталось, надо удалить. Примечание: Если вы удалили программу, но хотите оставить ее настройки, чтобы установить ее в будущем и продолжать работать, не удаляйте ее файлы. Как это сделать: 1. Вам будет проще разобраться, если вы все программы устанавливали в папку Program Files\. 2. Откройте папку Program Files\ и просмотрите содержащиеся в ней подпапки. Если вы найдете такую, название которой полностью совпадает с названием удаленной вами программы, можете смело удалять всю папку. 3. Аналогичное действие произведите с папкой Program Files\Common Files\. Только имейте в виду – в этой папке вы увидите не названия программ, а названия фирм разработчиков. Поэтому удаляйте папку только в том случае, если удалены все программы этого разработчика. 4. То же самое произведите с папкой Documents and Settings\Подпапка\Application Data\. Подпапка означает, что вам следует перебрать все вложенные директории в Documents and Settings\. Этап 2. Удаление Шаг 9. Эскизов Если вы просматриваете файлы изображений с помощью проводника, вы, наверное, знаете, что такое эскиз. Эскиз – уменьшенная копия изображения, хранящегося в файле. Эскизы служат для удобного и быстрого доступа к любому изображению. При этом, если вы в первый раз просматриваете папку с изображениями, эскизы будут загружаться долго, а в следующий раз – быстро. Дело в том, что эскизы изображений кэшируются (сохраняются) в той же папке в скрытом файле thumbs.db. Если у вас сотни или тысячи изображений, файлы thumbs.db могут занимать слишком много места. Как это сделать: 1. Для однократного удаления файлов эскизов произведите поиск thumbs.db и удалите все найденные файлы (должен быть включен режим отображения скрытых файлов). 2. Для того, чтобы отключить кэширование эскизов нажмите Пуск -> Панель управления -> Свойства папки -> Вид -> Дополнительные параметры -> Не кэшировать эскизы. Этап 2. Удаление Шаг 10. Файлов дампа памяти Если у вас случается зависание системы с BSOD (Blue Screen of Death – Синий экран смерти), то при этом операционная система сохраняет часть оперативной памяти (по умолчанию) или ее полностью для анализа неполадки специалистами. Если вы не ас в машинных кодах, лучше отключить эту возможность и удалить файлы с содержанием оперативной памяти. Как это сделать: 1. Чтобы однократно удалить файлы дампа памяти, удалите папку %SystemRoot%\Minidump\, где %SystemRoot% - каталог установки Windows, например C:\Windows. 2. Чтобы отключить эту возможность, нажмите Пуск -> Панель управления -> Система -> Дополнительно -> Загрузка и восстановление -> Параметры -> Запись отладочной информации -> Отсутствует В среднем можно очистить: от нескольких килобайт до мегабайт. Этап 2. Удаление Шаг 11. Кэша драйверов При установке операционная система копирует архив драйверов для того, чтобы потом удобнее было производить установку устройств. Вы можете удалить кэш драйверов, а если вам все же придется устанавливать новые устройства без родных драйверов, операционная система попросит вставить компакт диск с дистрибутивом Windows. Как это сделать: Удалите папку %SystemRoot%\Driver Cache\i386\» В среднем можно очистить: 100 Мб. Этап 2. Удаление Шаг 12. Кэша защищенных системных файлов Операционная система сохраняет защищенные файлы в кэше для того, чтобы, в случае повреждения оригинальных файлов, заменить их файлами из кэша. Можно удалить эти файлы однократно или отключить кэш. Как это сделать: 1. Чтобы однократно удалить файлы кэша, удалите папку %SystemRoot%\system32\dllcache\. 2. Чтобы установить новый размер кэша, нажмите Пуск -> Выполнить ‘sfc /cachesize=X”, где Х – новый размер кэша (например, Х=0 – отключить кэш). Потом выполните пункт 1. При следующей проверке защищенных системных файлов система заполнит кэш до заданного объема. В среднем можно очистить: 400 Мб. Этап 2. Удаление Шаг 13. Файла спящего режима Спящий режим очень удобен. Он позволяет выключить компьютер, сохранив все окна и программы на прежнем месте. При входе в спящий режим система сохраняет содержимое оперативной памяти в файле hiberfil.sys на жестком диске. Он хранится постоянно, чтобы при входе в спящий режим не возникла проблема отсутствия места на диске. Если такая возможность вам ни к чему, можете отключить спящий режим. Как это сделать: Пуск -> Панель управления -> Электропитание -> Спящий режим -> НЕ Разрешить использование спящего режима -> OK. Файл hiberfil.sys исчезнет, а спящий режим будет недоступен. В среднем можно очистить: размер оперативной памяти. Этап 3. Уменьшение размера Шаг 14. Сжатие электронных писем Если вы ведете активную электронную переписку с помощью Outlook Express, у вас наверняка хранятся сотни электронных сообщений. Их можно почистить и вручную, а можно сжать (увеличить компактность), автоматически уменьшив занимаемое ими место Как это сделать: Outlook Express -> Файл -> Папка -> Сжать все папки Этап 3. Уменьшение размера Шаг 15. Сжатие мультимедиа При хранении файлов мультимедиа (изображения, звук, видео) их обычно сжимают по специальным алгоритмам, характерным для определенных типов файлов. Если у вас хранятся изображения в формате BMP, звук WAV или несжатое видео – значит, их можно сжать, уменьшив их размеры примерно в 10 раз. Примечание: для этих видов мультимедиа существуют два основных вида сжатия: без потери качества и с потерей качества. Чаще пользуются вторым, и находят компромисс между степенью сжатия и качеством. Как это сделать: используйте кодеры и соответствующие программы. Самое простое, что можно посоветовать: 1. Фотографии – JPEG 2. Звук – MP3 (c помощью программы Audiograbber или CDex) 3. Видео – MPEG (DivX, с помощью программы VirtualDub) Этап 3. Уменьшение размера Шаг 16. Архивирование Для сжатия различных типов файлов применяют универсальные алгоритмы архивирования данных. Принцип работы архиватора в следующем: он находит в файле повторяющиеся фрагменты и заменяет их на один фрагмент с указанием количества повторов. Архиватором не стоит сжимать несжатое мультимедиа (т.к. более эффективными будут специальные кодеры) и тем более сжатое мультимедиа (коэффициент сжатия будет нулевым). Стоит сжимать в основном обычные документы – они сжимаются до 10 и более раз. Остальные файлы – по вашему усмотрению. Примечание – архивируйте только файлы, созданные или скопированные вами (программы нельзя архивировать!). Как это сделать: Я советую использовать программу WinRar. В ней вы можете оценить степень сжатия, и решить – архивировать или нет. Она создает архивы ZIP или RAR. RAR имеет большую степень сжатия, а ZIP позволяет быстро извлечь отдельно взятый файл из архива. Кроме того, ZIP больше распространен в Интернете. Также можно воспользоваться архиватором WinZip (или ZIP, встроенным в Total Commander). Этап 3. Уменьшение размера Шаг 17. Восстановления системы В Windows XP встроена функция восстановления системы. Она работает следующим образом - все серьезные изменения (установка драйверов, программ и др.) фиксируются и создаются точки восстановления, чтобы потом, в случае появления сбоев, восстановить систему на более ранний момент времени. Но возможность восстановления может отнять много места на жестком диске. Чтобы решить эту проблему, можно удалить все точки восстановления, кроме последней; а можно изменить объем, резервируемый для восстановления системы, или вообще отключить данную возможность. Как это сделать: 1. Чтобы удалить все точки восстановления, кроме последней, нажмите Пуск -> Выполнить -> cleanmgr -> Дополнительно -> Восстановление системы -> Очистить -или- Пуск -> Все программы -> Стандартные -> Служебные -> Очистка диска -> Дополнительно -> Восстановление системы -> Очистить 2. Чтобы изменить объем, резервируемый для восстановления системы, нажмите «Пуск -> Панель управления -> Система -> Восстановление системы -> Использование дискового пространства -> Зарезервировать на диске» и передвиньте ползунок. 3. Чтобы отключить восстановление системы, нажмите Пуск -> Панель управления -> Система -> Восстановление системы -> Отключить восстановление системы В среднем можно очистить: 12% жесткого диска. Этап 3. Уменьшение размера Шаг 18. Файла подкачки При работе Windows использует не только оперативную память, а еще и виртуальную память, расположенную на жестком диске. Туда записываются данные при нехватке оперативной памяти, а также перемещаются данные программ, которые некоторое время не используются. По умолчанию размер виртуальной памяти 150% оперативной памяти. Возможно, вам можно уменьшить размер виртуальной памяти. А если у вас много памяти (512 Мб и больше), виртуальную память можно вообще отключить. Примечание: Узнать, на сколько реально используется файл подкачки, можно так: Ctrl+Alt+Delete -> Быстродействие -> Файл подкачки. Как это сделать: 1. Пуск -> Панель управления -> Система -> Дополнительно -> Быстродействие -> Параметры -> Дополнительно -> Виртуальная память -> Изменить 2. Если вы хотите изменить размер файла подкачки, выберите Диск, Особый размер и введите в поле Исходный размер и Максимальный размер то, что хотите. Нажмите «Задать». (Если исходного размера виртуальной памяти будет не хватать, система увеличит размер вплоть до максимального.) 3. Чтобы удалить файл подкачки, выберите «Без файла подкачки». Нажмите «Задать». В среднем можно очистить: 150% оперативной памяти. Этап 3. Уменьшение размера Шаг 19. Кластера Файловая система разделяется на кластеры – небольшие единицы измерения информации. Например, в файловой системе NTFS кластеры имеют размер от 512 байт до 64 Кбайт. Один файл может располагаться в двух или более кластерах, но никакие два файла не могут находиться в одном кластере. Большой размер кластера увеличивает производительность дисковой системы и уменьшает пагубное воздействие фрагментации, замедляющей чтение и запись данных. Но большой размер кластера увеличивает потери объема, особенно, если много мелких файлов. Как это сделать: Я рекомендую использовать программу PowerQuest Partition Magic Pro версии 8.0 и выше. 1. Выделите раздел жесткого диска, размер кластера которого вы хотите изменить. 2. Раздел -> Дополнительно -> Изменить размер кластера (Partition -> Advanced -> Resize clusters) 3. Программа покажет, какие потери будут при различных размерах кластера. 4. Выберите новый размер кластера и нажмите OK. Этап 3. Уменьшение размера Шаг 20. Сжатие на уровне ФС Некоторые файлы можно сжимать архиватором, чтобы они занимали меньше места. Однако такой способ не подходит для программ, хотя у некоторых из них есть хороший потенциал для сжатия. В этом случае можно использовать сжатие на уровне файловой системы. При таком сжатии можно сжимать все что угодно, даже папку Program Files и Windows. Все становится значительно меньше по объему, а производительность почти не меняется. Это прекрасный способ освободить очень много места на жестком диске. Сжатие поддерживает только файловая система NTFS. Примечание: сжатие может занять очень много времени. Как это сделать: 1. Если у вас еще не стоит файловая система NTFS, я рекомендую отконвертировать диск с помощью программы PowerQuest Partition Magic Pro версии 8.0 и выше. 2. Пуск -> Мой компьютер -> Диск C:, D:, E: и т.д. -> Свойства -> Сжимать диск для экономии места -> OK. Этап 4. Если ничего не помогло Шаг 21. Покупки Если вам ничего не помогло (что маловероятно) – придется потратить деньги на новый носитель информации. Если денег немного, я советую купить CD-ReWriter. Он совсем недорогой, и вы сможете записывать тысячами диски CD-R (одноразовой записи) и CD-RW (перезаписываемые). (Это решения принял я – и теперь доволен выбором.) Если у вас денег достаточно, можете купить новый винчестер большого объема. Но это крайняя мера (это тоже я сделал, но только потому, что полетел старый :). Как это сделать: просто пойти в магазин и купить :) Финиш Вы закончили очистку HDD Теперь вы видите, сколько вы очистили места на своем жестком диске. Много это или мало – судите сами. Если много – напишите мне на Anet256@mail.ru. А заодно посетите сайт www.Anet256.narod.ru. Я считаю так: <0 Мб – что-то вы схитрили, такого быть не может 0-10 Мб – ну очень мало 10-100 Мб – маловато 100-1000 Мб – нормально 1.000-10.000 Мб – прекрасно 10.000-100.000 Мб – потрясающе >100.000 Мб – этого тоже не может быть. Успехов вам в познании железного друга! © Антон Моисеев вернуться к содержанию У нас к Вам осталась единственная просьба. Пишите нам о том, что Вам действительно интересно, чтобы наше издание в полной мере соответствовало Вашим требованиям и интересам. Наш адрес: mobio@yandex.ru. До скорых встреч! |
© 2003-2005 редакция / Перепечатка информации возможна,
обязательно обращайтесь. Редакция: mobio@yandex.ru Все виды сотрудничества: mobio@yandex.ru |
http://subscribe.ru/
http://subscribe.ru/feedback/ |
Подписан адрес: Код этой рассылки: compjournal.techevents |
Отписаться |
В избранное | ||