1001 совет по обустройству компьютера

Ревич Юрий Всеволодович

Часть I

Аппаратные средства персональных компьютеров

 

 

Глава 1. Начинка компьютера. Особенности мобильных компьютеров

Глава 2. Мультимедиа

Глава 3. Компьютерные порты

Глава 4. Сменные носители

 

Глава 1

Начинка компьютера. Особенности мобильных компьютеров

 

В мире первых персональных компьютеров, приблизительно до рубежа тысячелетия, было жить очень просто – существовало вполне счетное количество разновидностей процессоров, имевших четкие различия по характеристикам. Если «чайник» оказывался перед необходимостью выбора, то срабатывал простейший критерий тактовой частоты – понятно, что 486DX с частотой 33 МГц будет работать медленнее, чем 486DX4 с частотой 120 МГц. Мало кого волновали другие различия между этими моделями – в частности, производительность разных моделей 80486 могла различаться в разы даже при одной и той же тактовой частоте, но на практике никто особенно не обращал на это внимания – производительность всей системы оставалась примерно на том же уровне, и возможности тоже были примерно одинаковыми.

Где-то к середине 2000-х годов положение резко изменилось. Сейчас число одновременно выпускающихся только основными производителями (Intel и AMD) моделей процессоров со всеми модификациями – сотни разновидностей, и в них легко запутается даже знаток. Производители достигли физического порога увеличения тактовой частоты – она остановилась примерно на уровне 3-х с лишним гигагерц, и этот критерий перестал быть определяющим. Обратите внимание: при частоте 3 ГГц за время одного такта сигнал, скорость которого, между прочим, равна скорости света, проходит всего 10 сантиметров! Это вызывает определенные сложности при проектировании системных плат – при различной длине проводников сигналы по разным линиям будут «разъезжаться» по времени. Это заставило пересмотреть многие традиционные принципы построения компьютерных систем – в частности, повсеместный переход на последовательные интерфейсы взамен параллельных, из-за чего пришлось практически обновлять весь парк жестких дисков и видеокарт.

Множество достаточно производительных систем, предлагаемых сейчас торговлей, имеют тактовую частоту намного ниже практически достижимого порога. Скорость работы компьютеров, наконец, стала определяться не тактовой частотой, а организацией обмена информацией и различными нововведениями в этой области, подтягивающими узкие места. В результате компьютер производства 2003 года может отставать по производительности от компьютера производства 2010 года с той же тактовой частотой процессора (и даже с тем же по видимости типом процессора) в разы.

С другой стороны, производители обнаружили, что такая высокая производительность требуется вовсе не всегда – большинство практических задач совсем не предполагают никаких экстремальных расчетов, и с ними могут справиться вполне рядовые системы. Не то, чтобы задач, требующих повышенной производительности, вообще не существовало – просто ее повышение на 30 % и даже в два раза проблем не решает. Примером могут служить интеллектуальные функции машин – например, нет сомнений, что проблему машинного языкового перевода решить можно. Но вычислительную мощность, которая для этого потребуется, можно оценить на примере родственной задачи – компьютер «Ватсон», выигравший в 2011 году американскую телевикторину Jeopardy (в России эта программа называется «Своя игра»), по вычислительной мощности входит в сотню самых производительных суперкомпьютеров мира. Да, его научили «понимать» запросы на естественном языке практически без ограничений, распознавать юмор, учитывать социокультурный контекст, что очень важно как раз в случае перевода с одного языка на другой. Но даже довольно ограниченный интеллект в рамках такой определенной задачи потребовал почти трех тысяч процессорных ядер и 16 терабайт памяти – и, не забудем, четырех лет на разработку уникального программного обеспечения.

Возможности «Ватсон» в сотни раз превышают возможности современных настольных машин, и чтобы их расширить, производителям придется обойти еще не один технический порог, подобный уже возникшему физическому ограничению по тактовой частоте. Когда-нибудь они это, без сомнения, сделают или найдут другие пути решения проблемы экстремальных задач (например, «облачные вычисления»), а пока приходится обходиться тем, что имеется в наличии.

 

1.1. Выбор процессора для персональных компьютеров

С уверенностью можно сказать, что в большинстве случаев для рядовых пользователей выбор центрального процессора сегодня решающего значения не имеет – мощность компьютера даже со слабым процессором все равно позволит выполнять почти любые практические задачи. Собственно, выбирать процессор сегодня приходится лишь в одном случае – при покупке нового настольного компьютера (десктопа). Ноутбуки и тем более другие мобильные устройства (нетбуки, планшеты или смартфоны) по критерию процессора, как и вообще аппаратной платформы в целом, выбирать бессмысленно – их выбирают по функциональности и цене. В крайнем случае можно озаботиться качеством дисплея.

А в случае десктопа действительно приходится начинать выбор именно с процессора. Как и когда-то, такой выбор обуславливает производительность компьютера в целом. Только теперь не столько потому, что такой-то процессор медленнее или быстрее другого, сколько из-за того, что выбор процессора влечет за собой выбор управляющего чипсета, а следовательно, и типа материнской платы, системы охлаждения и многих других мелочей, а именно от этого сегодня зависит функциональность и производительность компьютера в целом. Так, контроллер доступа к памяти в современных системах в ряде случаев встроен в процессор (обычно это процессоры, поддерживающие 64-разрядные вычисления), и потому, выбрав процессор, вы оказываетесь жестко привязаны к определенному типу памяти.

Особо следует поговорить о выборе между 32-разрядными и 64-разрядными системами. Большинство современных процессоров поддерживает 64-разрядные вычисления (включая даже почти все модификации самого простого и дешевого процессора Intel под названием Atom, предназначенного в основном для мобильных компьютеров). Названия таких процессоров и чипсетов к ним дополнительно включают в себя цифру 64: «Intel 64», «amd64», «x86-64», «x64», «EM64T» – разные названия одной и той же технологии.

На практике преимущество 64-разрядных систем заключается не в собственно разрядности вычислений (это может и не дать заметного эффекта), а в том, что системы с такой разрядностью могут поддерживать гораздо больший объем памяти. Сравните – обычная 32-разрядная Windows XP поддерживает физическую память максимум в 4 гигабайта, из которых реально работает около 3,5. 64-разрядная Windows XP поддерживает уже 16 Гбайт, а Windows 7 – до 192 Гбайт (в зависимости от редакции), что фактически равно объему современных жестких дисков.

Но также понятно, что для достижения реального эффекта в таких системах нужно еще много условий. Нужны не просто соответствующие драйверы, которые могут работать в 64-разрядной системе – они вместе с аппаратурой должны реально поддерживать 64-разрядный режим расчетов. Нужны соответствующие программы – обычные 32-битные, естественно, не дадут никакого прироста производительности, даже если их приспособить для работы в 64-разрядной среде. Наконец, нужны собственно задачи, для которых эффект будет значимым: включающие объемные вычисления и оперирование большими объемами данных. Таких задач, как уже говорилось, у обычного пользователя сегодня практически нет – даже с преобразованиями фотографий формата настенных календарей рядовая современная персоналка справляется, как говорится, «на раз».

Возможно, в скором времени все персональные компьютеры и системы для них станут 64-разрядными, и будет накоплено много соответствующего программного обеспечения. Но пока для всех практических случаев, включая даже самые «навороченные» компьютерные игры (одна из самых сложных задач для бытового компьютера), выбор 32-разрядной системы является необходимым и достаточным. Заодно вы гарантированы от несовместимости старых программ с 64-разрядной системой – хотя Microsoft обещает, что в большинстве случаев эти программы будут выполнятся, но все-таки не все. И довольно глупо покупать какой-нибудь новый антивирус только из любви к прогрессу, не получив таким способом ровным счетом никаких преимуществ.

Несколько иная, кстати, ситуация с количеством вычислительных ядер в процессоре. Несколько ядер – все равно, что несколько процессоров, работающих одновременно. Общеизвестно, что реальную отдачу от многих ядер можно получить лишь в случае, когда выполняющаяся программа эффективно делится на ряд параллельных потоков, и далеко не все компьютерные задачи соответствуют этому предположению. Кроме того, даже если такое деление и возможно, то оно очень трудоемко – «распараллеливание» программ почти не поддается автоматизации, и программистам его приходится проводить фактически вручную (именно так делаются программы для суперкомпьютеров).

Но в мире персональных компьютеров есть одна очень распространенная задача, которая уже сама по своей природе является распараллеленной. Более того, это самая часто встречающаяся задача на практике – выполнение одновременно многих задач в многозадачной операционной системе. Здесь ничего придумывать не приходится, и для запуска каждой задачи в своем отдельном процессоре нет никаких препятствий. В реальности, конечно, удвоение и учетверение количества ядер не дает такого же прироста производительности – как минимум, в таких системах процессорам приходится делить общую память и другие ресурсы компьютера, что сильно уменьшает выигрыш. Два ядра могут суммарно дать примерно 167 % увеличения производительности в сравнении с одноядерным процессором, четыре – примерно 250 %, а больше шести ядер (Intel Core i7 или AMD Phenom II X6) и вовсе ставить нецелесообразно – дальше производительность будет расти очень медленно. Но эффект от увеличения количества ядер все равно намного больший, чем от таких дорогих усовершенствований, как повышение быстродействия памяти, или даже от подгонки задач под 64-разрядные вычисления. Потому двухъядерные или четырехъядерные процессоры уже стали фактическим стандартом в отрасли.

Далее приводятся примерные рекомендации по выбору процессора в зависимости от задач, которые вам предстоит решать на настольном компьютере. Расшифровка обозначений: Celeron 430 LGA775 1.8GHz/512Kb/800MHz означает процессор Intel Celeron модели 430; сокет (разъем) – LGA775; тактовая частота – 1,8 гигагерц; объём кэша второго уровня (L2) – 512 килобайт; частота системной шины процессора – 800 мегагерц. Отметим, что AMD и Intel считают частоту системной шины немного по-разному, оттого у них сильно различающиеся цифры (некоторые подробности см. в разд. 1.6 «Память»). Если подробности о кэше и системной шине не приводятся, это значит, что их разновидностей для данного типа процессоров немного, и они не имеют большого значения.

В скобках указаны условные оценки быстродействия соответствующей системы в процентах от идеализированной рекордной системы, принятой за 100 % (по данным компании «НИКС»). При проведении теста старались по максимуму задействовать и многоядерные, и 64-разрядные функции, а также всяческие дополнительные функции (например, аппаратное декодирование видео, если оно предусмотрено в конструкции). Потому на реальных задачах различие между моделями процессоров может быть и в разы выше, и в разы ниже, чем указанная величина. Единственное, о чем можно говорить с уверенностью – нет такой задачи, которая бы заставила Celeron работать быстрее, чем Core i5.

♦ Офисная/домашняя минимальная (бюджетная) конфигурация:

• Intel: Pentium Dual-Core E2160 LGA775 1.8 ГГц/1Мбайт/800МГц (14,6 %)

• или Celeron E3500 LGA775 2.7 ГГц/1Мбайт/800МГц (19 %)

• AMD: Sempron 140 AM3 2.7 ГГц/1 Мбайт/4000МГц (13 %)

Цена этих процессоров составляет около 1000–1500 рублей.

♦ Офисная/домашняя оптимальная конфигурация:

• Intel: Pentium E6800 LGA775 3.33 ГГц/2Мбайт/1066МГц (29,5 %)

• или Core 2 Duo E7500 LGA775 2.93 ГГц/3Мбайт/1066МГц (28,3 %)

• AMD: Athlon II X2 265 AM3 3.3 ГГц/2Мбайт/4000МГц (30,7 %)

Цена этих процессоров составляет 2–3 тыс. рублей.

♦ Игровой/медийный компьютер высокого класса:

• Intel: Core i5-2500 LGA1155 3.3 ГГц (66,6 %)

• AMD: Phenom II X6 1090T Black Edition AM3 3.2 ГГц (68,2 %)

Цена этих процессоров составляет —7–9 тыс. рублей.

Рекордный компьютер с производительностью, близкой к 100 %, мог бы получиться на основе CPU Intel Core i7-980X Extreme 3,33 ГГц. Но в реальности едва ли кто захочет иметь такую систему в частном пользовании – цена только одного процессора выше тысячи долларов, а реальный выигрыш может быть очень далек от указанных условных цифр.

 

1.2. Выбор материнской платы

Как мы уже говорили, выбор процессора обуславливает тип чипсета и, иногда, тип памяти. Чипсет (набор системной логики) – это набор микросхем, поддерживающий какие-то определенные типы процессоров. Но предлагаемое разнообразие чипсетов для одного и того же процессора все-таки достаточно велико, чтобы запутаться (хотя сделать роковую ошибку и трудно). Мало того, на практике на основе выбранного чипсета можно получить огромное количество самых разнообразных конфигураций материнских плат от разных производителей. И вот тут можно крупно промахнуться, сэкономив там, где экономить совсем не следует.

Чипсеты для процессоров Intel выпускает сама Intel, а также компании VIA, SIS и известный производитель видеокарт NVIDIA. Компания AMD сама довольно долго не выпускала чисеты для своих процессоров, но в 2006 году приобрела главного конкурента NVIDIA – компанию ATI, и также вышла на рынок чипсетов. Кроме самой AMD, чипсеты для ее процессоров выпускают те же NVIDIA, VIA и SIS. Для процессоров Intel и AMD требуются разные чипсеты, хотя иногда они могут носить почти одинаковые названия (например, у компании NVIDIA: nForce 750a для AMD, nForce 750i – для Intel). Соответственно, на материнскую плату, выпущенную для процессоров Intel, нельзя установить процессор от AMD, и наоборот.

Перечислить все возможные конфигурации материнских плат и дать конкретные рекомендации по их выбору еще труднее, чем в случае процессоров. В отличие от производства и разработки чипсетов – весьма сложного занятия, требующего высокой технологической культуры, опытных кадров и дорогих производств, – свои материнские платы может производить фактически каждый. Интернет-издание iXBT приводит список из почти полутора сотен компаний-производителей, включая и отечественные (например, компанию «Формоза»). Среди самых популярных в нашей стране можно назвать ASUS, Chaintech, Gigabyte, Microstar (MSI), Foxconn и саму Intel. В любом случае, выбирая плату, прежде всего стоит выяснить, есть ли у данного производителя в России достаточно развитая система фирменного обслуживания.

Для облегчения выбора кратко опишем, на что стоит обращать внимание при выборе материнской платы, кроме поддерживаемого типа процессора. Любой чипсет состоит из двух микросхем, иногда объединяемых в единый системный контроллер-концентратор, или, по-английски, System Controller Hub (SCH). Первая микросхема традиционно носит название северного моста (northbridge), официальное ее название – контроллер-концентратор памяти. Главная задача северного моста – связь с процессора с памятью и видеокартой. В него также обычно помещают встроенный графический контроллер (видеокарту), если она предусмотрена конструкцией чипсета. В некоторых случаях северный мост может отсутствовать – так, в процессоры Intel с разъемом (сокетом) LGA 1156 встроен и контроллер доступа к памяти, и видеоконтроллер (встроенная прямо в процессор видеосистема предусмотрена в ряде моделей современных процессоров Intel), потому чипсет для этого разъема состоит из одного южного моста.

Южный мост (southbridge) или контроллер-концентратор ввода/вывода – вторая обязательная составляющая чипсета. Южный мост, как можно понять из названия, обеспечивает взаимодействие между процессором и периферией: с жестким диском через интерфейсы IDE и SATA, с картами PCI, низкоскоростными (не для подключения видео) интерфейсами PCI Express, интерфейсами USB, FireWare и пр. Через отдельную микросхему, называемую Super I/O, южный мост также обеспечивает связь со старыми низкоскоростными портами RS232, LPT, PS/2.

Итак, последовательность выбора материнской платы следующая: сначала мы выбираем процессор, затем смотрим перечень чипсетов, которые его поддерживают. Как правило, на этом этапе уже оказывается задан и тип памяти (DDR2, DDR3 и т. п.). Учтите, что для максимальной производительности потребуется установить два или четыре модуля памяти (а не один и не три) одинакового объема в определенные разъемы для того, чтобы процессор имел доступ к памяти через два независимых канала (подробности см. в разд. 1.6 «Память»).

На основе выбранного чипсета (лучше выбирать, разумеется, наиболее современный из возможных) выстраиваем список доступных материнских плат, предпочтительно «брендового» производителя, имеющего развитую систему обслуживания в России. Далее тщательно просматриваем этот список, обращая внимание на следующие моменты:

♦ встроенная видеокарта – традиционно считается, что встроенная видеокарта медленная и убогая по функциональности, но во многих случаях это совсем не так. Если вы не собираетесь играть в современные графические игры (типовой такой случай – компьютер в офисе), то встроенная видеокарта подойдет вам стопроцентно. Единственное, на что следует обратить внимание, – будете ли вы подключать к ней более одного монитора. Современный плоский монитор лучше подключать не через VGA (D-Sub), а через цифровой интерфейс DVI (подробнее об этом в главе 2 «Мультимедиа»). Но встроенные видеокарты с двумя разъемами DVI встречаются очень редко – в этом случае лучше все-таки предусмотреть отдельную видеокарту. А вот для домашнего компьютера, вероятно, стоит предусмотреть отдельную видеокарту в любом случае. Может так случиться, что встроенная очень быстро перестанет удовлетворять вас или ваших домашних, и вы зря потратите деньги – все-таки встроенная видеокарта существенно добавляет к стоимости материнской платы. Для внешней видеокарты на плате должен быть разъем типа PCI Express x16 (см. рис. 1.1);

Рис. 1.1. Типовая современная материнская плата: 1 – разъемы PCI; 2 – разъемы PCI-Express x1; 3 – разъемы PCI-Express x16 (для видеокарты); 4 – процессорный разъем (сокет) с креплениями; 5 – радиатор для охлаждения микросхемы чипсета; 6 – пары разъемов DIMM для установки модулей памяти; 7 – разъемы SATA для подключения жестких дисков; 8 – устаревшие разъемы IDE (Parallel ATA) для той же цели

♦ все современные материнские платы имеют встроенные звуковой (Audio) и сетевой (Ethernet, LAN) контроллеры, но на всякий случай их наличие стоит проверить. Звуковой контроллер обычно соответствует весьма «продвинутому» стандарту High Definition Audio, что, с одной стороны, перекрывает потребности абсолютно всех категорий пользователей, с другой – для большинства это все-таки излишне «навороченное» решение, которое может вызвать ряд практических сложностей в настройке;

♦ на плате обязательно должны быть разъемы PCI или, как минимум, PCI Express x1 для подключения различных внешних интерфейсов на платах расширения. При этом обычный PCI предпочтителен, т. к. под него до сих пор выпускается большее разнообразие плат. Самый распространенный случай необходимости такого разъема – отсутствие какого-либо интерфейса в составе самой материнской платы (FireWare, LPT, RS-232 и пр), а следовательно, и нужда в использовании соответствующей платы расширения;

♦ в ряде материнских плат стоит посмотреть на параметр, который называется частота шины процессора (FSB). Если контроллер памяти не встроен в процессор, то FSB процессора должна совпадать с частотой шины, поддерживаемой чипсетом материнской платы. Например, процессор с частотой шины 1333 МГц не будет работать на плате, поддерживающей только процессоры с частотой шины 1066 МГц, даже если он подходит по типу и разъему (сокету). Но в ряде современных материнских плат, где северный мост попросту отсутствует, на этот параметр можно не обращать внимания;

♦ обратите внимание на возможность вывести на переднюю панель компьютера USB-разъемы, а также разъемы аудио. Отсутствие такой возможности ведет к крупным неудобствам в эксплуатации компьютера – иногда получить доступ к разъемам на задней панели корпуса бывает затруднительно;

♦ если у вас от старого компьютера имеется оптический привод с параллельным IDE-интерфейсом, то стоит проверить наличие такого интерфейса на плате. В отличие от жестких дисков, оптический привод менять только из-за перехода на новый интерфейс нецелесообразно. А вот жесткие диски стоит поменять на современные – во-первых, ваши наверняка работают уже долго, а ресурс их не бесконечен, во-вторых, вы замените их на значительно более емкие;

♦ форм-фактор материнской платы определяет ее размер и, соответственно, влияет на выбор корпуса. В настоящее время наиболее популярны форм-факторы типа ATX и mATX (microATX). Не следует стремиться к излишней миниатюризации – компактные корпуса, конечно, приятнее, но условия охлаждения в них гораздо хуже. Кроме того, на миниатюрных платах умещается меньше разъемов, и они стоят теснее, отчего платы расширения будут мешать друг другу (особенно это касается видеокарт, могущих занимать два или даже три слота в ширину);

♦ в последнюю очередь стоит ознакомиться с перечнем внешних интерфейсов. Есть материнские платы, которые до сих пор снабжаются портами и LPT, и COM (RS-232). Но заострять внимание на наличии таких портов не стоит – если у вас задержался LPT-принтер, или вы имеете программатор с интерфейсом RS-232, или прикупили внешний жесткий диск c портом FireWare, то всегда есть возможность обеспечить недостающие интерфейсы с помощью PCI-плат расширения (главное, были бы свободные разъемы под такие платы). Причем применение таких плат расширения предпочтительнее, чем альтернатива в виде кабелей-переходников, подключаемых к порту USB, – платы, как правило, устойчивее в работе. В некоторых случаях (как например, в случае COM-порта) такие платы даже надежнее, чем встроенные порты в материнскую плату, – в случае чего сгорит плата, и ее можно заменить. Единственный внешний интерфейс, который удобнее иметь прямо на материнской плате, – разъемы PS/2 для мыши и клавиатуры. Впрочем, соответствующие устройства вполне заменяемы на USB-варианты (переходник на PS/2 часто просто вкладывается в коробку), но нередко портов USB может просто не хватать. Причем активный (с дополнительным питанием) внешний USB-концентратор для увеличения количества портов совсем недешев и много неудобнее в обращении, чем разъемы PS/2 на плате (подробнее о этом см. главу 3 «Компьютерные порты»).

Для наглядности приведем снимки типовой материнской платы: на рис. 1.1 показан вид сверху, на рис. 1.2 – со стороны задней панели.

Рис. 1.2. Типичное расположение и внешний вид разъемов для подключения внешних устройств на задней панели компьютера: 1 – разъем PS/2 для мыши (бирюзовый); 2 – разъем PS/2 для клавиатуры (сиреневый); 3 – два разъема USB; 4 – разъем LPT для принтера (красный); 5 – последовательный порт COM (голубой); 6 – VGA-разъем для подключения монитора (синий); 7 – игровой порт (желтый); 8 – линейный выход (L-out, светло-зеленый); 9 – линейный вход (L-in, голубой); 10 – микрофонный вход (розовый); 11 – разъем сетевой карты (RJ-45); 12 – дополнительные USB-порты

 

1.3. Правила подключения к компьютеру внешних устройств

Несколько слов о правилах подключения устройств к компьютеру. Неверно, что перед подсоединением какого-либо разъема компьютер следует обязательно выключать – зачем тогда придумывали такие вещи, как горячее подключение (Plug-and-Play, PnP)? В общем случае через любой компьютерный порт оборудование можно подключать «горячим способом», если соблюдать определенные меры предосторожности. Заметим, что эти меры одинаково существенны и для современных PnP-интерфейсов, и в случае старинного RS-232 – известны случаи, когда при несчастливом совпадении ряда обстоятельств выходил из строя даже супернадежный и «несгораемый» порт FireWare.

Самое главное требование к соединяемым устройствам: потенциалы «общего провода» («земли», корпуса) у обоих соединяемых устройств должны быть выровнены заранее. При подключении по любому интерфейсу это происходит автоматически в момент соединения, но беда наступает тогда, когда до подключения потенциалы разные. Тогда в момент подключения они выравниваются скачком, и хорошо, если это происходит через металлические обрамления разъемов и оплетку кабеля. По сути все современные интерфейсы и рассчитаны по своей конструкции на такой случай (обрамления разъемов входят в контакт первыми, затем контакты питания, затем только все остальные), но не факт, что до выравнивания потенциалов сигнальные контакты не успеют соприкоснуться. А это значит, что через них потечет большой ток, на который нежные микросхемы, изготовленные с технологическими нормами в десятки нанометров, совершенно не рассчитаны – в результате порт выгорает гарантированно.

Выровнять потенциалы корпусов у соединяемых устройств на самом деле очень просто – надо всегда их включать в сеть проводом, имеющим вилку с третьим заземляющим контактом (причем этот контакт должен не болтаться в воздухе, а быть надежно соединен с корпусом прибора). Но одного этого, конечно, недостаточно – еще надо, чтобы розетки, в которые включаются устройства, были также снабжены заземляющими контактами, надежно соединенными между собой. В идеале эти заземляющие контакты также должны быть подсоединены и к настоящему заземлению, но это необязательно – достаточно лишь, как это называют в официальной документации, потенциаловыравнивающего проводника. Такой проводник всегда связывает между собой розетки в офисных удлинителях типа «Пилот» (рис. 1.3).

Рис. 1.3. Удлинитель типа «Пилот» – надежный способ защиты от выгорания компьютерных портов

Если для подключения используются настенные стационарные розетки – то проверьте заранее тестером, имеется ли в них соединение заземляющих контактов между собой отдельным проводом. Если такового нет, его абсолютно необходимо протянуть. В идеале все розетки в помещении (офисе, доме, квартире) должны быть связаны между собой достаточно толстым заземляющим проводником («третьим» проводом).

Внимание!

Никогда не используйте для подключения к сети компьютеров, принтеров, сетевых устройств и прочей офисной техники самодельные удлинители!

Есть, впрочем, и исключение – некоторые устройства изначально снабжены простейшими сетевыми вилками с двумя контактами (часто это касается блоков питания ноутбуков или аппаратуры с внешним блоком питания, объединенным с сетевой вилкой). Все такие устройства обладают одним общим свойством – у них «общий» провод изолирован от «земли», поэтому выравнивания потенциалов не требуется. В аппаратуре с питанием от батареек или аккумуляторов это происходит естественным образом, а в остальных устройствах изоляция достигается питанием через изолированную обмотку трансформатора и отсутствием металлических деталей корпуса, находящихся под каким-то потенциалом, связанным с потенциалами схемы прибора.

В общем случае такие устройства тоже нужно защищать – они-то чаще всего и выходят из строя. В связи с этим второе правило:

Внимание!

Никогда не используйте для связи компьютерных устройств самодельные кабели!

В фирменных кабелях, как уже говорилось, металлическое обрамление разъемов всегда входит в соединение раньше основных контактов, и это служит дополнительным эшелоном защиты в случае, если потенциалы по какой-то причине не были выровнены заранее. Если соблюдать эти правила, то безопасно даже включать и выключать в «горячем режиме» совершенно для этого не предназначенные разъемы RS-232.

 

1.4. Корпуса, охлаждение и общая конфигурация

 

Одно из самых неприятных свойств современных настольных компьютеров и ноутбуков – сопровождающий их работу шум вентиляторов. У ноутбуков тут ничего сделать невозможно – разве только обратить внимание на «шумность» при покупке модели. А для настольных компьютеров (десктопов) правильно сформулированная задача по выбору корпуса, блока питания (который выбирается вместе с корпусом) и систем охлаждения звучит так – обеспечить минимальный шум при достаточном охлаждении.

И уровень шума, и эффективность охлаждения зависят от большого количества параметров: и от конструкции корпуса, и от его размеров, и от «фирменности» радиаторов и вентиляторов, и от времени (со временем разбалтываются опоры подшипников в вентиляторах, а каналы радиатора забиваются пылью), и от того, насколько греются тепловыделяющие компоненты. Скажем, в обычном режиме работы (без обработки трехмерной графики), вентилятор на современной видеокарте, если она не экстремальной мощности, оказывается не очень-то и нужен мне удавалось годами работать с видеокартой, у которой вентилятор был сознательно физически отключен. Но всем рекомендовать такой прием с целью снижения шума, конечно, было бы слишком смело – на всякий случай вентилятор должен работать.

 

1.4.1. Подбор блока питания

При подборе блока питания учтите, что в первой половине 2000-х (примерно с появлением материнских плат с шиной PCI-Express) произошла смена стандартов, и блок питания от компьютера 2000 года с 20-контактным разъемом не подойдет к современной материнской плате, где контактов 24 (дополнительные четыре контакта от блока питания часто идут отдельным жгутом). Кроме того, были изменены требования по мощности отдельных линий (потому решить проблему простым размножением существующих линий не удастся), а с появлением SATA-дисков еще и изменена конструкция разъемов питания жестких дисков. Потому от старого компьютера при модернизации можно будет оставить разве что корпус, но блок питания придется сменить.

Начнем с расчета необходимой мощности блока питания. Грубая рекомендация звучит так – мощность блока питания среднего офисного или домашнего компьютера должна составлять 300–350 Вт. Не будет большим излишеством выбрать и 400-ваттный блок. Более мощные блоки – для экстремальных игровых конфигураций.

Для тех, кто привык все считать досконально, на множестве сайтов в Интернете есть специальные калькуляторы, как онлайновые, так и в виде отдельной программы. Чтобы их найти, достаточно в «Яндексе» или Google набрать запрос: расчет мощности блока питания. Посчитав с помощью такого калькулятора требуемую мощность для вашей системы, вы, возможно, будете удивлены – в типовом случае вы получите цифру на уровне примерно 120–150 Вт. Откуда тогда требование 350ваттного блока питания? Просто из принципа: «запас карман не тянет» – 300ваттный блок не отличается по габаритам от 200-ваттного и обойдется практически в ту же сумму. При этом надежность системы окажется намного выше, не придется думать о смене блока при модернизации, а если блок позволяет управлять оборотами вентилятора, то их можно еще дополнительно понизить, снизив тем самым и уровень шума.

Из практического опыта следует, что надежность блока питания мало зависит от степени его «фирменности» – если это только не совсем уж какой-нибудь корявый «но-нейм», спаянный на коленке «в трущобах Шанхая». А вот качество и долговечность установленного вентилятора, как и возможность управления им, как раз очень зависит от «брендовости» производителя.

Трудность состоит в том, что для получения заведомо гарантированного качества вам придется заплатить заметно больше среднего – так, блок питания Zalman на 400 Вт обойдется в сумму, приближающуюся к 2 тысячам рублей, тогда как цена «обычного» блока такой мощности, ничуть не хуже «залманского» по всем остальным параметрам, вряд ли будет более рублей 500–700.

Есть, однако, способ аккуратно обойти это требование – выбирать следует блоки питания с большим вентилятором во всю нижнюю сторону корпуса (а не обычным маленьким на задней панели). Пример блока питания с таким вентилятором показан на рис. 1.4. Вентилятор диаметром 120 мм, во-первых, имеет изначально меньше оборотов в минуту (чуть больше 1500, против почти 2500 у «обычных»), и потому шум от него на порядок ниже, во-вторых, из-за этого он меньше изнашивается со временем.

Рис. 1.4. Пример блока питания с вентилятором 120 мм

 

1.4.2. Выбор источника бесперебойного питания

С мощностью блока питания связан выбор источника бесперебойного питания (ИБП, или, по-английски, UPS). Учтите, что мощность ИБП всегда указывается в вольт-амперах (ВА), и эта цифра примерно на четверть-треть выше реальной отдаваемой мощности в ваттах. То есть минимальная мощность ИБП для блока питания 400 Вт должна составлять 500 ВА. Наилучшим выбором для домашнего компьютера будет ИБП мощностью около 700 ВА – в него вы сможете воткнуть и монитор, и модем со сканером и принтером. Более мощные ИБП относятся уже к профессиональным, и стоят обычно заметно дороже.

Нужно ли подсоединять ИБП к системе?

Большинство ИБП предоставляют возможность дистанционного управления ими через USB-кабель (в старинных моделях это был СОМ-порт). На самом деле никакой специальной настройки ИБП не требуют, и вы получите лишь еще один собирающий пыль провод, который никогда на практике не понадобится – в крайнем случае, если вы очень захотите, настройки можно разок выполнить через собственный интерфейс ИБП с передней панели. Потому большинство пользователей предпочитает никуда разъем управления ИБП не подсоединять. На функциональность Windows это тоже не повлияет – разве что в случае, если ИБП подключен, вы получите лишний раз «последнее китайское предупреждение» о том, что компьютер вот-вот скончается. Но при отключении сети ИБП и без того изведет вас своими звуковыми сигналами, от которых очень захочется выключить всю систему, даже не дожидаясь полной разрядки аккумулятора.

 

1.4.3. Вентиляторы и температура внутри корпуса

Вентиляторы для процессоров, к сожалению, не предполагают такого выбора размеров, как в блоках питания – там размер задан конструкцией радиатора. Потому если вы особо чувствительны к шуму, то тут не обойтись без покупки фирменной конструкции, причем желательно сразу в сборе с радиатором. Здесь тоже применимо правило – чем больше размеры вентилятора, тем лучше. Хорошо, если материнская плата позволяет осуществлять регулировку числа оборотов – тогда, постепенно их снижая, можно найти оптимум, когда температура процессора еще не повышается до критической (примерно 50 градусов), а обороты уже достаточно малы. Размеры корпусного вентилятора обычно, к сожалению, нередко заданы еще более жестко (обычный размер: 92x92 мм), потому там тем более приходится выбирать самую фирменную конструкцию или изначально выбирать корпус с большим вентилятором 120 мм.

Программы для измерения температуры процессора и материнской платы и, если это возможно, для регулировки оборотов вентиляторов, должны найтись на диске, прилагаемом к материнской плате. Но опыт показал, что такие утилиты обычно избыточны по функциональности, слишком сложны и нестабильны. Потому лучше воспользоваться одной из сторонних программ. Есть много подобных продуктов, и платных и бесплатных, и их нужно тщательно выбирать. Из бесплатных для чистого контроля параметров я порекомендую HWMonitor – очень простую программу, состоящую из единственного исполняемого файла, и не требующую установки, но весьма информативную (рис. 1.5) – как видите, он показывает даже температуру жесткого диска (см. раздел под заголовком ST3500630AS), правда, только одного из двух, имеющихся в компьютере. Кроме того, программа показывает минимальное и максимальное значение за время, пока она запущена. При желании текущие показания можно сохранить в файл и сравнить их, например, с тем, что было до установки нового вентилятора. Скачать последнюю версию HWMonitor можно с сайта разработчиков cpuid.com.

Рис. 1.5. Контроль параметров настольного компьютера с помощью программы HWMonitor

Что означает AUXTIN?

Большинство программ, показывающих температуру, скорость вращения вентиляторов и прочие параметры компьютера, – англоязычные (включая и фирменные утилиты производителя материнской платы). Для того чтобы проще было разобраться, расшифруем ряд позиций, которые вы можете видеть на рис. 1.5:

• Fans – вентиляторы;

• AUX – сокращение от auxilary (дополнительный);

• CPU – центральное процессорное устройство (процессор);

• Core – ядро;

• соответственно, CPUFANN0 – процессорный вентилятор № 0;

• AUXFANN0 – дополнительный вентилятор, в данном случае корпусной;

• SYSTIN – внутренняя (IN) температура системной платы;

• CPUTIN – внутренняя температура процессора;

• AUXYIN – дополнительный вход измерителя температуры (в данном случае он не подключен никуда, потому показывает «погоду на Марсе»;

• для жесткого диска: Assembly – в сборке (т. е. температура внутри диска), Air Flow – расход воздуха (т. е. температура воздушной среды), в данном случае оба датчика, видимо, объединены.

Померив температуру материнской платы (она не должна превышать 45–50 градусов даже в жаркое летнее время – параметры, которые вы видите на рис. 1.5, были измерены при температуре в помещении 26 °C), вы можете сделать заключение о необходимости дополнительных вентиляторов, установленных на корпусе системного блока (корпусных). Вообще-то, для нормальной работы не слишком «навороченного» компьютера достаточно трех вентиляторов: в блоке питания, на процессоре и на видеокарте (причем последний, как мы видели, не всегда и не для всех пользователей обязателен). Если у вас имеются корпусные вентиляторы, то попробуйте их аккуратно отключить (отсоединив разъем вентилятора от материнской платы), и непрерывно контролируйте температуру материнской платы. Если в комнате жара, а температура через час после включения не превысила указанной ранее величины, то можете смело избавляться от лишних источников шума. Учтите, что имеющийся в некоторых корпусах воздуховод (в виде трубы к вентилятору процессора), снижает температуру процессора, но повышает ее для окружающих компонентов. Поэтому стоит проэкспериментировать, удалив эту трубу, – если температура материнской платы снизится, а процессора – не повысится вовсе или повысится не больше, чем на один-два градуса, то стоит обойтись без нее.

Тут тоже действует правило: «запас карман не тянет». Самые чувствительные к нагреву в современном компьютере компоненты – жесткие диски, которые к тому же охлаждаются хуже всех остальных компонентов. Долговечность жестких дисков напрямую зависит от температуры: 55–60 градусов – уже предельное критическое значение. При нормальной работе диска температура не должна превысить тех же 45–50 градусов (руке горячо, но терпимо), и производители утверждают, что долговечность сильно повысится, если температура будет ниже 40 градусов. Если у вас есть подозрение, что жесткие диски все время греются выше допустимого, то следует принять меры: возможно, подключить-таки корпусные вентиляторы или даже поставить отдельный вентилятор специально для обдува диска (они бывают самых разных конструкций и стоимости).

 

1.4.4. Общая конфигурация корпуса

При выборе общей конфигурации корпуса следует исходить из следующих соображений. Как минимум, стоит рассчитывать на два отдельных жестких диска в стандарте 3,5 дюйма: как мы еще узнаем, так надежнее – на втором хранится резервная копия основного. 3,5-дюймовый диск будет греться гораздо меньше миниатюрного 2,5-дюймового и, к тому же, окажется заметно дешевле. Неплохо, если эти диски будут разнесены подальше друг от друга – с одним пустым отсеком между ними. Обязательно потребуется и оптический привод, притом достаточно больших габаритов (под пятидюймовый отсек) – они удобнее и надежнее миниатюрных, типа ноутбучных.

Наконец, не мешает иметь на месте бывшего флопии-привода кардридер – набор гнезд под различные типы флэш-карт. Если такое вам не требуется, то на этом месте удобно разместить панель с дополнительными аудиогнездами и USB-портами.

В свободный пятидюймовый или трехдюймовый отсек попробуйте установить панель с регуляторами скорости вращения вентиляторов – она может показаться выпендрежной игрушкой, но на самом деле это ужасно удобная штука, если вы чувствительны к уровню шума. С ней уже можно не обращать внимание на функциональность материнской платы в отношении регулировки оборотов вентиляторов – так, панель Scythe Kaze Master Pro 3.5 стоимостью меньше двух тыс. рублей позволяет управлять скоростью вращения до четырех вентиляторов (вплоть до полной их остановки), непрерывно контролируя на дисплее температуру в соответствующих точках.

Доработка заглушки

Следующий прием здорово способствует установлению оптимальной температуры в корпусе: возьмите заглушку свободного пятидюймового отсека, аккуратно вырежьте в ней прямоугольное отверстие максимально возможного размера и заклейте его с обратной стороны кусочком прочной пластиковой сетки (можно отрезать от той, что вешают на окна от комаров, подобрав ее по желаемому цвету). Такая сетка на месте заглушки существенно улучшит циркуляцию воздуха в корпусе, не нарушив внешнего вида системного блока. Только не забывайте периодически очищать сетку от скапливающейся пыли.

В основном с температурными требованиями и связан выбор размеров корпуса, но может так случиться, сама компонуемая конфигурация уже установит достаточный размер. Очень заманчиво иметь миниатюрный корпус, вроде модного формата Mini-TTX (собственно корпус с размерами 215x230x65, а плата для него – 170x170), однако в такие габариты нормальный компьютер просто не влезет. Но даже если выбранные вами компоненты без натяга упаковываются в miniTower, то выберите все-таки корпус на размер больше – типоразмера midiTower. Там будет больше свободного места и лучше вентиляция, а значит, надежнее работа компонентов и больше возможностей для снижения шума.

Если стоимость вас не лимитирует, то предпочтительно выбрать алюминиевый корпус – охлаждение в нем будет гораздо лучше. И обратите внимание, чтобы достаточно легко снимались по отдельности обе боковые стенки – меньше мучений при необходимости что-то модернизировать.

За компьютером надо ухаживать, очищая материнскую плату и радиаторы от скапливающейся пыли. В обычной городской квартире это приходится делать как минимум раз в полгода, а в начале лета, когда летит тополиный пух, – ежемесячно, в противном случае эффективность охлаждения заметно снижается. Если у вас внезапно и без предупреждения компьютер выключился – значит, дело скорее всего в перегреве процессора или материнской платы (второй причиной может быть плохой контакт в соединении шнура питания с корпусом). При этом бытовой пылесос не всегда справляется с задачей очистки компьютерных внутренностей – между ребер процессорного радиатора и в вентиляторах пыль застревает очень прочно. Для преодоления этой трудности в продаже (например, в радиомагазинах) имеются специальные баллончики со сжатым воздухом для продувки узких мест.

 

1.5. Жесткие диски

С жесткими дисками пользователь напрямую практически не сталкивается – как правило, все диски всех производителей примерно одинаковы по своим характеристикам, и единственное, что пользователя «колышет», – это доступный ему объем дискового пространства. Тем не менее, уже из предыдущего текста видно, что диски за последние годы претерпели ряд изменений, и здесь мы кратко остановимся на особенностях современных моделей и их правильной эксплуатации.

Перпендикулярная запись уже уходит в прошлое

В 2005–2006 годах компьютерная пресса радостно рапортовала о переходе производителей жестких дисков на новую технологию производства магнитных пластин – перпендикулярную запись. Эта технология позволила перейти порог максимальной плотности информации на пластине жесткого диска, который для старых дисков с параллельной записью составлял около 100–200 Гбит/кв. дюйм (здесь термины «параллельный» и «перпендикулярный» относятся к направлению магнитного поля относительно поверхности пластины диска). Перпендикулярная запись позволила достичь плотностей записи свыше 500 Гбит/кв. дюйм (рекорд пока, видимо, принадлежит Toshiba – 541 Гбит/кв. дюйм). Это привело в 2010 году к появлению винчестеров емкостью в 3 терабайта, а теоретическим пределом для перпендикулярной записи считается 1 Тбит/кв. дюйм, что должно, согласно обещаниям Hitachi, привести в конце 2011 – начале 2012 года к появлению 5-терабайтного «винта».

И на этом возможности перпендикулярной записи будут исчерпаны. Отметим, что именно необъятная единичная емкость устройства в сочетании с экстремально низкой ценой каждого гигабайта (в дисках емкостью 3 Тбайта – не более 5 центов за гигабайт) и позволяет капризным и сложным по устройству магнитным носителям не только выживать, но и продолжать доминировать в качестве устройства долговременной компьютерной памяти. И они имеют шанс сохранить это доминирование еще надолго: Toshiba, в частности, сообщила о скором открытии двух исследовательских центров, где вместе с TDK и Showa Denko будет разрабатывать новые технологии. Это может быть термомагнитная запись (HAMR, от Heat Assistant Magnetic Recording, магнитная запись с помощью тепла), когда к обычным головкам добавляется лазер, точечно прогревающий носитель со специальным покрытием в месте записи, или запись методом упорядоченного битового массива данных (bit-patterned media). Уже изготовленный прототип по последней из этих технологий имеет плотность записи 2,5 Тбит/кв. дюйм, т. е. 10-терабитовые диски уже не за горами.

Основное изменение, которым отмечены последние годы, кроме увеличения емкости дисков – практически все выпускаемые жесткие диски сегодня имеют интерфейс Serial ATA (SATA). Windows Vista и «семерка» распознают его «от рождения», а о том, как с ним справляться при установке Windows XP, мы поговорим в главе 8 «Установка Windows». Изменились и разъемы подключения – как интерфейсный, так и разъем питания, потому вставить новый диск в старый компьютер (выпуска примерно до 2006 года) не получится.

О надежности жестких дисков ходят разноречивые сведения, но истина заключается в том, что серьезных независимых исследований этого вопроса просто никто не проводил или, по крайней мере, не публиковал результаты в общедоступных СМИ. Единственное найденное мной квалифицированное исследование, результаты которого, кстати, серьезно расходятся с данными производителей дисков, проводилось в 2007 году учеными из университета Карнеги – Меллона. По их данным, среднее время наработки на отказ (mean-time before failure, MTBF), завышается производителями приблизительно в 15 раз, и в среднем (по всем исследованным моделям всех производителей) не превышает 5–7 лет. Причем ожидаемо ярко выражены два пика интенсивности отказов: в течение первого года работы, а также после седьмого. Как выяснилось, характер нагрузки, формируемой спецификой приложений, не оказывает заметного влияния на MTBF.

Более того, вопреки рекомендациям производителей, одинаковые показатели надежности наблюдаются как у дисков, обеспеченных хорошим охлаждением, так и у работающих при повышенных температурах (что, конечно же, не означает возможности греть диски до любой произвольной температуры, потому в этом вопросе лучше все-таки полагаться на рекомендации производителей). Еще одним неожиданным и неприятным для производителей результатом исследования было то, что и ориентированные на массовый рынок жесткие диски с интерфейсами PATA/SATA и позиционируемые как не только высокопроизводительные, но и как обладающие повышенной надежностью накопители с интерфейсами SCST, SAS или Fiber Channel, в действительности демонстрируют сходные показатели MTBF.

Какие практические выводы можно сделать из такого исследования? Во-первых, ничего катастрофического ученые не обнаружили: 5–7 лет вполне приемлемое время жизни для диска. Жесткий диск более этого срока в домашнем или офисном компьютере и не живет – либо устаревает и выбрасывается компьютер, либо, как минимум, переполняется и заменяется диск.

Во-вторых, диски следует для надежности дублировать – так можно застраховаться и от первого пика отказов (в начале эксплуатации), и от постепенного старения в конце срока службы. Самым надежным способом резервирования будет организация дискового массива (RATD1), о котором – во врезке Что такое RAID и зачем он нужен? далее. Однако совершенно необязательно строить дисковые массивы на каждом компьютере (к тому же, на ноутбуках их и не построишь). Чтобы уберечься от сбоя диска, достаточно иметь отдельный диск (обычный, не объединенный в массив) на том же или на другом компьютере, на который регулярно «сливается» архив рабочего диска. То, как это лучше сделать практически, мы обсудим в главе 11 «Ремонт Windows».

Что такое RAID и зачем он нужен?

RAID (redundant array of independent disks, избыточный массив независимых жёстких дисков) – несколько дисков, соединенных друг с другом, управляемых специальным RAID-контроллером и воспринимаемых внешней системой как единое целое. Еще не так давно такой контроллер обошелся бы в приличные деньги, но сейчас большинство материнских плат с SATA-интерфейсом имеют встроенные функции RAID-контроллера.

Для домашнего пользователя имеет смысл лишь конфигурация RAID1 – так называемый зеркальный дисковый массив, когда данные дублируются на двух дисках параллельно. То есть, например, два диска по 500 Гбайт, объединенные в RAID1, будут выглядеть для системы, как один диск 500 Гбайт. Какой смысл в такой конфигурации? Вероятность выхода из строя сразу двух дисков равна произведению вероятностей отказа каждого диска. Таким образом, вдвое переплатив, вы во много раз увеличиваете надёжность – RAID1 работает до тех пор, пока функционирует хотя бы один диск в массиве. Неисправный диск при этом можно заменить, даже не выключая компьютера (хотя я бы не посоветовал заниматься такими экспериментами на домашнем ПК).

Другой распространенный вариант – RAID0, сам по себе большого смысла для домашнего пользователя он не имеет. Там диски просто объединяются, за счет чего увеличивается скорость записи, зато надежность, наоборот, резко падает. Можно объединить преимущества обоих способов (когда два RAID1 объединяются в RAID0), но это потребует четырех дисков, и в результате конфигурация получается чересчур дорогой и громоздкой – дешевле обойдется просто приобрести диски побольше.

Я настоятельно советую где-то в домашней сети обязательно иметь один RAID1 – для хранения резервных копий. Необязательно это должен быть настольный компьютер – куда удобнее иметь RAID в общем сетевом файловом хранилище (NAS). Они специально рассчитаны на создание именно дисковых массивов, и ничего специально настраивать вам не придется – просто попросить продавца прямо в магазине вставить туда диски и сразу отформатировать их (подробнее о NAS см. в разд. 11.2 «Создание резервных копий системы»).

Устанавливать диски лучше не вплотную друг к другу, а чтобы между ними в корзине оставался свободный отсек (поэтому мы и рекомендовали покупать корпуса на размер больше, чем надо). Крепить диски обязательно всеми четырьмя положенными винтами – в противном случае диск может в процессе работы вибрировать, входя в резонанс со стенкой корпуса. Следует следить и за качеством крепления CD-привода – он будет вибрировать неизбежно (из-за всегда имеющейся некоторой несбалансированности оптических дисков), и плохо, когда его вибрация передается на жесткие диски.

В настройках энергосбережения Windows среди прочих есть пункт «отключение дисков». Так вот, я был рад узнать из статьи одного специалиста по ремонту компьютеров, что ремонтники, оказывается, полностью поддерживают мою позицию по этому вопросу – диски лучше не отключать вовсе, чем отключать их каждые пятнадцать минут. Более того, в рекомендациях этого специалиста так и сказано: «если у Вас есть возможность – не выключайте Ваш ПК вообще». В главе 8 «Установка Windows», в разговоре о настройках Windows, мы еще вернемся к этому вопросу подробнее.

Десятилетие назад были распространены мобильные рэки – специальные корзины, вставляющиеся в стандартный пятидюймовый отсек, которые позволяли быстро подключать жесткие диски к компьютеру, используя их как переносное хранилище информации (по понятным причинам такие устройства были очень распространены среди тех, кто занимался обработкой видео). Сейчас имеется достаточный выбор мобильных носителей информации большой емкости, куда более удобных, компактных и надежных (например, упомянутые рэки редко когда удавалось запустить в режиме горячего подключения, а флэш-накопители это позволяли делать с самого начала). Так что жесткие диски в качестве мобильных носителей использовать ныне решительно не рекомендуется – как, собственно, не рекомендовалось и ранее, просто выбора не было. Жесткие диски, особенно десктопные (в форм-факторе 3,5 дюйма), очень не любят перемещений – от сотрясения, ударов и вибрации, сопровождающих перемещение, они быстро выйдут из строя. А механическое воздействие (даже резкий поворот) во время работы гарантированно портит жесткий диск.

И если средства вам позволяют, мой совет при первой же возможности перейти на твердотельные жесткие диски, о которых мы будем говорить в главе 4. Сменные носители. К сожалению, они не только принципиально дороже обычных, но и имеют примерно на порядок меньшую максимальную емкость – во всем остальном они решительно превосходят магнитные носители, история которых уже перевалила за полвека.

 

1.6. Память

 

О различных типах памяти мы упоминали при разговоре о чипсетах, а здесь кратко обобщим сказанное и познакомимся с различными типами памяти. Выбирать тип памяти, вам, как правило, не приходится – он обуславливается чипсетом, а тот, в свою очередь, – типом процессора. Тем не менее, знать хотя бы в общих чертах, что же вам подсовывают, следует, и изучением этого вопроса мы сейчас займемся.

 

1.6.1. Как устроена оперативная память ПК?

Как вы можете убедиться, взглянув на рис. 1.6, элементарная ячейка динамической памяти (DRAM) устроена крайне просто – схема состоит из одного транзистора и одного конденсатора. Конденсатор на схеме выглядит маленьким, но на самом деле занимает места раза в четыре больше транзистора, только, в основном, в глубине кристалла. Потому ячейки DRAM можно сделать очень малых размеров, а, следовательно, упаковать их много на один кристалл, не теряя быстродействия. Отсюда и распространенность DRAM в качестве компьютерных ОЗУ. За такую простоту и компактность приходится расплачиваться необходимостью постоянной регенерации содержимого – ввиду микроскопических размеров и, соответственно, емкости конденсатора, в ячейке DRAM записанная информация хранится всего лишь десятые-сотые доли секунды.

Рис. 1.6. Схема элементарной ячейки DRAM

В первых образцах персональных компьютеров регенерацией памяти ведал специальный служебный канал системного таймера, который подавал сигнал регенерации каждые 15 мкс на 1/256 часть массива памяти, примерно за 3,8 мс восстанавливая весь доступный объем. Такое решение неудобно и опасно – во-первых, регенерация всей памяти занимает много времени, в течение которого ПК неработоспособен; во-вторых, любая зловредная программа может попросту остановить системный таймер, отчего компьютер уже через несколько миллисекунд обязан впасть в полный ступор. И все современные микросхемы DRAM занимаются восстановлением данных самостоятельно, да еще и так, чтобы не мешать основной задаче, – процессам чтения/записи.

 

1.6.2. Типы памяти

В настоящее время существует много усовершенствованных модификаций базового типа DRAM, показанного на рис. 1.6. Главное усовершенствование в динамическую память было внесено в начале 1990-х, когда появилась SDRAM (синхронная DRAM). В такой памяти ответ на поступившую команду появляется не сразу (точнее, с неопределенной задержкой, обусловленной быстродействием внутренних схем памяти, иными словами – асинхронно), а лишь с фронтом определенного тактового сигнала, отстоящего от начала команды на строго заданное число тактов. Это позволило точно синхронизировать работу памяти с работой процессора и упорядочить процесс обмена.

Следующим этапом было появление DDR SDRAM (Double Data Rate, с удвоенной скоростью передачи данных). При использовании DDR SDRAM достигается удвоенная скорость работы за счёт считывания команд и данных не только по фронту, как в SDRAM, но и по спаду тактового сигнала. Таким образом, при работе DDR на частоте 100 МГц мы получим эффективную частоту обмена данными 200 МГц. Для DDR SDRAM впервые появились чипсеты, которые позволяли использовать модули памяти в двухканальном, а некоторые чипсеты – и в четырёхканальном режиме. Для работы памяти в двухканальном режиме требуется 2 (или 4) модуля памяти – с тех пор это требование стало общим для всех материнских плат.

В настоящее время простая DDR SDRAM практически вытеснена следующими поколениями: DDR2 и DDR3. Как и DDR SDRAM, DDR2 SDRAM использует передачу данных по обоим срезам тактового сигнала, но отличается вдвое большей частотой работы шины, по которой данные передаются в буфер микросхемы памяти. DDR2 не является обратно совместимой с DDR, для нее нужны специальные контроллеры и число контактов модуля тоже отличается. Потому при покупке нового компьютера память от старого компьютера, скорее всего, придется выбросить (некоторые продавцы на рынках принимают или обменивают такую память на новые типы с доплатой).

Следующее поколение, DDR3 SDRAM, системотехнически не отличается от DDR2, но имеет иные электрические параметры (в частности, сниженное до 1,5 В напряжение питания, в сравнении с 1,8 В для DDR2 и 2,5 В для DDR). Поэтому они также несовместимы с предыдущими поколениями памяти. Иногда еще можно встретить материнские платы, в которых допускается установка либо DDR2, либо DDR3 – на выбор, для чего предусмотрены разные группы разъемов. С 2013 года ожидается появление следующего поколения – DDR4 SDRAM, которая будет поддерживать частоту работы от 2133 до 4266 МГц.

О разнице в обозначениях системной шины Intel и AMD

Кроме типа, модули памяти отличаются скоростью работы, и нередко в этом вопросе разобраться очень сложно. В начале главы мы уже отмечали разницу в обозначениях системной шины Intel и AMD, расскажем о ней подробнее. Быстродействие памяти может указываться в величинах эффективной тактовой частоты системной шины: DDR2-800, к примеру, имеет эффективную частоту 800 МГц, хотя сама по себе частота системной шины для нее 400 МГц, а частота, на которой работает память, – вообще 200 МГц. Иногда пользователя запутывают еще больше, указывая максимально возможную скорость передачи данных (такая маркировка начинается с букв PC) – например, модуль памяти на основе DDR2-800 тогда будет называться PC2-6400 (если последнее число поделить на 8, то как раз получится эффективная частота, – процессоры AMD и маркируются примерно таким же образом вместо частоты системной шины). Потому следует очень внимательно смотреть на тип, скорость работы и количество модулей памяти, рекомендуемые для данного процессора, и стараться в этом вопросе не экспериментировать. Один модуль DDR2 объемом 4 гигабайта не заменит двух модулей по 2 гигабайта каждый – может так случиться, что в этом случае материнская плата с данным процессором вовсе не заработает.

В заключение этого краткого обзора памяти приведем рекомендацию, которую часто повторяют специалисты: что лучше, 4 модуля по 1 Гбайт памяти или 2 модуля по 2 Гбайт? Второй вариант предпочтительнее (и, кстати, выгоднее по цене), потому что, чем меньше плат памяти, тем легче их синхронизировать, меньше нагрузка на контроллер памяти, и работа вашего ПК будет стабильнее.

 

1.7. Применение и особенности мобильных ПК

 

В недалеком прошлом, всего лет пятнадцать назад, существовало всего две разновидности персональных компьютеров: настольные (десктопы) и переносные (ноутбуки или лэптопы, что в переводе значит «наколенные»). Слабые попытки (например, фирмы Apple в их карманном компьютере Newton) соорудить что-нибудь более компактное, чем ноутбук, разбивались о дороговизну комплектующих – дисплеев и памяти, об отсутствие малопотребляющих и емких накопителей долговременного хранения информации, о примитивность и малое быстродействие внешних интерфейсов, особенно беспроводных. И лишь с появлением устройств флэш-памяти, дешевых беспроводных интерфейсов Wi-Fi и Bluetooth, доступных технологий передачи данных по сотовым сетям, усовершенствованием дисплейных технологий и прочих «плодов прогресса», карманные ПК стали быстро развиваться и совершенствоваться.

Подешевели и ноутбуки – в США количество проданных ноутбуков обогнало количество настольных компьютеров еще в 2005 году, в России ноутбуки резко вырвались вперед в 2010 году, сразу заняв 62 % рынка среди всех «больших» компьютеров. Сейчас типовой компьютерный пользователь имеет настольный компьютер дома (обычно в коллективно-семейном пользовании) и к нему ноутбук для личных и рабочих нужд. Те, кто имеет стационарный компьютер на рабочем месте, обычно дополняют его коммуникатором или нетбуком для мобильности, а самые «продвинутые» – планшетом, вроде iPad или Samsung Galaxy Tab.

Автор этих строк знает одного довольно высокопоставленного менеджера (генерального директора областной компании-оператора сотовой связи), который в личном пользовании имеет лишь коммуникатор и нетбук, перекрывающие почти все его потребности по функциональности компьютерной техники и всегда находящиеся при нем. Коммуникатор служит для оперативной связи и быстрого доступа к электронной почте и мессенджерам, а нетбук – для обстоятельных ответов на послания, финансовых операций и интернет-серфинга. «Большие» компьютеры у этого господина тоже, конечно, имеются, но используются куда менее интенсивно – домашний стационарный предназначен для крупных работ, а в офисе с ним в основном управляется секретарша.

Основной выбор у пользователя в том, какие компьютеры предпочесть – условно говоря, громоздкий десктоп против компактного нетбука или планшета – проходит по водоразделу потребление/производство информации. Если у пользователя доминирует потребление, т. е. его основные занятия: серфинг по Интернету, просмотр видео, получение сообщений от партнеров по социальным сетям, то планшет для него – идеальный выбор. Компания DisplaySearch утверждает, что если в 2010 году во всем мире планшетных ПК было продано меньше, чем нетбуков, то по итогам 2011 года продажи планшетников превысят продажи нетбуков в два раза. Характерно, что, согласно опросу Mail.ru, еще в 2009 году лишь 11 % россиян вообще знали, что такое планшетный компьютер, но уже к концу 2010 года количество осведомленных выросло до 93 %. Причину такого успеха следует усматривать в появлении Apple iPad, который, по выражению представителя фирмы Acer Глеба Мишина, «появился в нужное время, когда распространение получили современные средства связи, прежде всего сотовая связь третьего поколения, т. е. когда у мобильного пользователя появилась возможность быстро получать большие объемы цифровой информации и обмениваться ею».

Другую категорию пользователей представляет, например, автор этих строк. Поскольку он в основном занимается созданием достаточно крупных текстов и другими подобными «глобальными» вещами: обработкой фотографий, программированием, созданием иллюстраций – ему для этого требуется, конечно, стационарный компьютер с достаточно большим монитором (а лучше – двумя). На ноутбуке тоже можно заниматься подобной работой, но тогда ноутбук придется выбирать из ценовой ниши выше среднего – прежде всего, из-за размеров и качества экрана. Такие ноутбуки выходят существенно – примерно в два-три раза – дороже десктопа, при том, что они все-таки менее удобны. В то же время тем, кому важны в первую очередь коммуникационные функции: чтение новостей, социальные сети, мессенджеры, – за глаза хватит функциональности почти любого нетбука ценой в 10–12 тыс. рублей, и приобретать громоздкий настольный компьютер ему совершенно ни к чему.

При этом настольные компьютеры продолжают доминировать в корпоративном секторе, особенно в крупных компаниях и корпорациях, связанных с повышенной секретностью (финансовых, государственных, военных). Это связано с тем, что стационарные компьютеры проще администрировать удаленно и проще для них обеспечить режим безопасности – один украденный ноутбук может принести немало неприятностей целой компании. Более того, есть отрасли (банковский сектор, медицина, сфера социальных услуг, органы безопасности, судебные учреждения), которым запрещено оснащать свои рабочие места мобильными компьютерами по закону – на них невозможно обеспечить сертифицированные средства безопасности надлежащего уровня. А вот мелкий и средний бизнес, особенно торговые представители, страховые агенты, риэтерские организации, наоборот, все больше переходят на мобильные рабочие места.

Кратко рассмотрим особенности и возможности упомянутых типов мобильных компьютеров с точки зрения домашнего пользователя. Хотя некоторые аналитики (например, из компаний IDC и Gartner) отказываются признавать планшетники полноценными компьютерами, пользователи уже сделали это за них, и мы тоже последуем этой тенденции. Карманные компьютеры (смартфоны и коммуникаторы) мы здесь рассматривать не будем, а остановимся на ноутбуках, нетбуках и планшетах, как самых популярных ныне разновидностях.

 

1.7.1. Ноутбуки

Проектируя ноутбук, инженеры вынуждены решить сложную задачу компромисса – с одной стороны, получить достаточно производительную систему, по крайней мере, сравнимую с настольными компьютерами, с другой – обеспечить мобильность и приемлемое время автономной работы. Из необходимости такого компромисса, к которому следует добавить еще условия привлекательной цены и минимального веса, и вытекают все особенности ноутбуков, отличающие их от настольных систем, и не в лучшую сторону. Приходится применять более дорогие модификации процессоров (которые так и называются – мобильные), отличающиеся пониженным потреблением и «умением» гибко подстраивать свои режимы работы, специальные жесткие диски меньших размеров (2,5") и приспособленные к переноске, – в общем, почти все с эпитетом «специальное». И еще плотно все это упаковывать, следя при этом за тем, чтобы оставалось достаточно свободного места для прохода охлаждающих потоков воздуха, а вентиляторы при этом шумели не слишком громко.

Следует ли удивляться, что ноутбук стоит раза в два-три дороже настольной системы, равной ему по качеству и производительности? Хотя оценивать ноутбук, сравнивая его с настольными системами, будет не совсем корректно – у него несколько другие задачи, и на первый план вылезают те качества, которые у обычных компьютеров иногда даже вовсе отсутствуют.

Самое узкое место во всех мобильных системах – время автономной работы, и на этом вопросе мы остановимся подробнее. Еще в 2003 году Intel проводила опрос, интересуясь у пользователей: каким временем автономной работы должен обладать ноутбук? Результаты показали, что критичное время, которое удовлетворило бы большинство пользователей, – восемь часов. Но эта цифра и сегодня, спустя много лет, не достигнута даже в первом приближении (точнее, относительно достигнута, но лишь в менее мощных, чем ноутбуки, разновидностях мобильных компьютеров, о которых далее).

Прогресс химических источников тока – батарей и аккумуляторов – конечно, не стоит на месте, но примерно за четверть века удалось добиться фактически лишь двукратного повышения удельной энергоемкости аккумуляторов – с 60–65 Вт-ч/кг у никель-кадмиевых аккумуляторов до 120–150 Вт-ч/кг у современных литий-ионных и литий-полимерных. При этом ущербное свойство никель-кадмиевых аккумуляторов портиться при заряде не «с нуля» (так называемый «эффект памяти») с лихвой перекрыто такими недостатками литий-ионных, как способность деградировать при хранении так же, как и при эксплуатации (т. е. стандартное время жизни литий-ионных аккумуляторов, независимо от условий эксплуатации и хранения, – три-четыре года, и покупать их впрок бессмысленно), и иногда даже взрываться – при неправильном заряде или от собственных, внутренних причин. Потому если тут кто и кардинально выиграл, то только экологи: они полагают, что литий – ионные батареи гораздо менее вредны окружающей среде, чем содержащие кадмий (и тем более свинец).

Получим ли мы мощные и долговечные аккумуляторы?

Успокаивает в вопросе недостаточной емкости автономных источников питания только то, что у разработчиков все еще впереди – теоретическая удельная энергоемкость литиевых аккумуляторов наивысшая из реально возможных электрохимических систем и может достигать более 11 кВтч/кг, т. е. современные аккумуляторы используют ее лишь примерно на один-полтора процента. Периодически возникают оптимистические сообщения о разработке новых типов аккумуляторов повышенной энергоемкости и сохранности. Но до прилавка пока доведена лишь одна такая разработка – это литий-железо-фосфатный аккумулятор, причем его преимущество не в емкости, которая остается на прежнем уровне, и даже несколько меньше обычного, а в повышенной долговечности (до 2000 циклов заряд/разряд) и намного большей удельной мощности, достигающей 3 кВт/кг (примерно на порядок больше никель-кадмиевых, считающихся рекордсменами по этому параметру). То есть наших мобильных компьютеров это, увы, мало касается, зато обрадует любителей электротранспорта и электроинструмента. Впрочем, предложенные фирмой A123 Systems еще в середине 2000-х, литий-железо-фосфатные аккумуляторы еще не стали общепризнанными даже в этих областях – они еще слишком дороги.

Зашло в тупик и когда-то много обещавшее направление по использованию для питания мобильной электроники топливных элементов на основе метанола. Предполагалось, что при таком источнике питания достаточно долить горючего (метилового спирта) в бачок, и несколько часов работы ноутбука обеспечены. Но метанольные элементы оказались слишком сложными по устройству, чтобы их можно было просто и дешево упаковать в блок питания переносного устройства. Эту проблему, несомненно, удалось бы решить (был момент, когда этими типами источников питания занимались практически все крупнейшие производители бытовой электроники в мире), если бы не другое препятствие, которое оказалось непреодолимым, – воспротивилась Ассоциация воздушного транспорта. Метанол – сильный яд и к тому же горюч, потому разгерметизация такого элемента в замкнутом пространстве воздушного лайнера (случайная или с умыслом) может привести к катастрофическим последствиям. Американское Федеральное авиационное агентство даже специально подтвердило, что запрещает иметь на борту самолета топливные ячейки с содержанием метилового спирта выше 24 %. А кому нужен ноутбук, который нельзя захватить с собой в путешествие?

По всем этим причинам приобрести производительный и одновременно имеющий достаточно большое время автономной работы ноутбук не получится – характерное время работы от батарей для этого класса компьютеров составляет один-два часа (есть, впрочем, рекордсмены, вытягивающие часа три). Указанное в технических характеристиках время автономной работы бывает и больше указанных величин, но паспортную величину следует делить на два и более – в зависимости от условий работы.

Самый потребляющий компонент ноутбука – экран (30 % и более общего потребления). Причем если с потреблением процессора производители научились как-то справляться (и технологическими приемами, и организацией его работы), то с потреблением экрана ничего не поделаешь, и новые технологии (LED-подсветка, LED-дисплеи и пр. – см. главу 2 «Мультимедиа») тут помогают мало. После дисплея по потреблению идет материнская плата (чипсет), которую также трудно ограничить в аппетитах. Как-то снизить потребление можно, если принудительно выключать отдельные компоненты (например, беспроводные порты) и включать их при необходимости. Излишне говорить, что это крайне неудобно для пользователя, и к тому же эффект будет мало заметен – потребление куда больше зависит от характера нагрузки (используется ли интенсивно жесткий диск, видеокарта, процессор и т. д.). Как мы увидим (см. главу 8 «Установка Windows»), в Windows 7 в настройках есть даже такая функция, как оптимизация демонстрации видео – по его качеству или по времени автономной работы ноутбука.

Средний ноутбук с 15-дюймовым экраном потребляет от 18 до 50 Вт в зависимости от нагрузки. Обычная емкость батареи такого ноутбука составляет 42–48 ватт-часов, что и дает время работы от реального часа до паспортных двух с половиной (в режиме ожидания).

Многие покупатели ноутбуков, кстати, не замечают различий в условиях гарантии на ноутбук и аккумулятор. Хотя срок гарантии на ноутбук меняется от одного производителя к другому (и от одной страны к другой), он обычно составляет от двух до трёх лет. На аккумуляторы же обычно дают намного меньшую гарантию – скажем, всего шесть месяцев. Так что обращайте внимание на эту величину при покупке.

И, в силу указанных особенностей литий-ионных аккумуляторов, не надейтесь приобрести б/у ноутбук с исправной батареей. На практике всегда при покупке или получении в подарок старого ноутбука (который сам по себе может вполне функционален – если он не старше примерно середины 2000-х годов), сразу планируйте приобрести к нему новый аккумулятор. Аккумулятор может стоит порядка 2–3 тыс. рублей, и такое приобретение вполне оправданно.

Остальные же компоненты ноутбука, кроме батареи, могут служить еще долго – некоторые опасения может вызвать разве что жесткий диск (см. разд. 1.5 «Жесткие диски»), но это побеждается регулярным архивированием. Потому если вам попадется недорого б/у ноутбук высокого класса, с хорошим экраном и достаточным набором периферии (Bluetooth, Wi-Fi, не менее 3–4 гнезд USB, может быть, кардридер, выход на внешний монитор, выдеовыход на телевизор, камера), то берите не раздумывая. Даже целесообразно потратиться на его обслуживание в сервис-центре – они почистят внутренности от пыли и заменят все неисправные части, включая батарею. Цена такого обслуживания составит 5-10 тыс. рублей (последняя цифра – если придется заменять оптический привод или жесткий диск), и это целесообразная трата денег: новый высококлассный ноутбук с хорошим экраном может стоить от 40–50 тыс. рублей, а выиграете вы разве что в небольшом увеличении скорости работы, что для мобильного компьютера не очень критично.

 

1.7.2. Нетбуки

Появление около 2008 года и сразу же обретение необычайной популярности таким классом компьютеров, как нетбуки, можно было давно предсказать. По сути это просто ноутбук, предельно усеченный во всем (в размерах экрана, в производительности процессора), за исключением коммуникационных портов. Усечение имеет двоякую цель – с одной стороны, уменьшить габариты компьютера до предела (такого, чтобы оставить возможность более-менее удобного набора текста на клавиатуре) и обеспечить ему возможно большее время автономной работы (приблизив его к тем самым пресловутым восьми часам), с другой – удешевить изделие, сделав его доступным каждому, как второй или третий компьютер, который в идеале можно просто засунуть в карман пальто или плаща.

И задумка производителям блестяще удалась – нетбуки в среднем стоят от 10 до 12 тыс. рублей (примерно вдвое дешевле бюджетного ноутбука), имеют время автономной работы реально несколько часов (чего хватает, чтобы, например, развлечься просмотром фильмов во время долгого перелета) и по функциональности находятся на уровне, отвечающей потребностям даже многих «производителей», а не только лишь «потребителей» информации. Например, нетбуки стали популярны среди представителей СМИ – на нем можно набрать текст и отправить его в редакцию прямо во время пресс-конференции. Кроме текстов, на нетбуке удобно, как уже говорилось, смотреть видео в дороге, можно даже простейшим образом обработать фотографии и отправить их на фотохостинг. Монтажом видео или серьезной обработкой изображений, конечно, на них заниматься невозможно. Неудобно на них и набирать длинные тексты. Зато нетбуки идеальны для общения в социальных сетях и ведения своего блога из любого места.

При выборе нетбука стоит сначала обратить внимание на экран – даже если у вас отличное зрение, экран в 7 дюймов по диагонали будет маловат. Следует выбирать не менее чем 9-дюймовый дисплей и с разрешением не менее 1024 точек по длинной стороне. Второй критичный момент – размеры клавиатуры. В большинстве нетбуков она представляет собой уменьшеную (и усеченную) копию ноутбучной, но есть нетбуки, в которых производитель умудрился разместить практически полноразмерные клавиши. Это важно, если вы планируете набирать на нем тексты, тем более обладателям крупных кистей рук.

Третий момент – время автономной работы. Как и для ноутбуков, указываемую изготовителем характеристику следует делить на два – получите примерное время реальной работы, без особых ограничений. Кстати, с временем работы связан и выбор процессора (специально его обращать на его тип внимания не стоит): есть нетбуки на процессорах типа Celeron – этот CPU работает очень медленно и потребляет много энергии. Лучшие нетбуки имеют процессор Intel Atom или Nano от VIA. Учтите, кстати, что дешевые нетбуки с флэш-диском работают медленно из-за качества этого флэш-диска – быстрый SSD недешев, хотя и потребление энергии у них меньше, чем у обычных магнитных накопителей.

И, наконец, рекомендация, которая встречается во многих источниках – нетбук целесообразно приобретать с установленной Linux, а не Windows. Для медленных и слабых компьютеров Linux однозначно предпочтительнее, чем Wndows, а все программы под задачи для таких компьютеров практически равнознозначны «виндусовым» (а браузеры или почтовые клиенты так и вовсе практически не отличаются). И стоит потратить некоторое время на освоение, чтобы сэкономить на скорости работы устройства и его энергопотреблении – в конце концов, для этого нетбук и приобретается.

 

1.7.3. Планшеты

Вообще-то правильно называть их «планшетные комьпютеры», потому что название «планшет» уже занято – так называют специальные устройства управления курсором, позволяющие рисовать «от руки» с помощью компьютера. Если в поисковой строке «Яндекса» набрать слово планшет, то большая часть ссылок будет вести на описания этого типа манипуляторов. Но пользователи быстро привыкли к новой разновидности компьютеров, и в разговорном языке слово «планшет» уже однозначно «прилипло» к ним.

Планшетные компьютеры по-английски называют Tablet PC, хотя некоторые обозреватели и склоняются к тому, чтобы выделить несколько разновидностей, и тогда Tablet PC будет относиться лишь к самым «продвинутым» – на основе полноценной Windows (Windows XP Tablet PC Edition, Vista или 7). Такие планшеты обязательно имеют в комплекте док-станцию с возможностью подключения внешней клавиатуры, мыши и монитора и позволяют установить практически любое ПО. Более простые планшеты (благодаря которым, собственно, этот класс компьютеров и стал настолько знаменит в последние годы, что его всерьез рассматривают как замену нетбукам и простейшим ноутбукам), прежде всего флагман отрасли – iPad от Apple и его конкуренты на основе ОС Android – предлагается именовать интернет-планшетами, или медиапланшетами.

Все становится на свои места, как только мы вспомним о делении пользователей на производителей и потребителей информации. Появление Apple iPad потому так и взорвало рынок планшетов, что «потребителям» оказалась вовсе не нужна способность устройства выполнять программы уровня Photoshop или AutoCAD, – они вполне обходятся стандартным набором из браузера, почтовика и медиаплеера, к которым иногда лишь добавляются офисные программы (но и они как правило для чтения документов, а не для их создания).

Сейчас на рынке присутствует поистине необъятное количество планшетных компьютеров самой разной природы и стоимости: начиная от 4 с небольшим тыс. рублей. Лидеры рынка: Apple iPad, BlackBerry PlayBook и Samsung Galaxy Tab – не относятся к самым дешевым и стоят, в зависимости от объема жесткого (твердотельного) диска и комплектации беспроводной связью, от 15 до 30 с лишним тыс. рублей. На мой взгляд, при выборе планшетника не имеет смысла экономить – у этих моделей значительно более качественный дисплей (особенно у iPad) и развитые коммуникационные функции (обязательный Bluetooth и Wi-Fi, у большей части – GPS, у самых дорогих – 3G), они имеют встроенную камеру, видеоускоритель, естественно, микрофон и аудиовыходы и т. п.

При этом три лидера построены на различной аппаратной основе и на различных операционных системах. Потому перед покупкой такого недешевого устройства имеет смысл его где-то взять «на попробовать» – потребительские свойства iOS, BlackBerry Tablet OS и Android заметно различаются, и какие-то их качества могут оказаться несовместимы именно с вашими привычками.

К планшетам относятся и популярные ныне электронные читалки, электронные ридеры (e-reader), но по пользовательским качествам и назначению они лежат резко в стороне от мэйнстрима мобильных компьютеров. Экран подавляющего большинства электронных ридеров сделан на основе электронной бумаги – дисплея специальной конструкции, отличающегося от большинства остальных типов дисплеев тем, что он сам не светится, а лишь отражает падающий свет, как и обычная бумага. Такой экран потребляет крайне мало энергии – фактически лишь на смену изображения, но при этом существенно медлительнее ЖК-дисплеев (время реакции – порядка секунды или долей секунды). И, к тому же, пока все электронные ридеры черно-белые – цветная электронная бумага никак не выйдет из стен лабораторий.

Именно эти свойства обусловили основное назначение устройств на основе электронной бумаги – как приспособлений для чтения текстов в электронной форме. Время реакции при таком применении не играет особой роли, зато «бумажные» дисплеи совершенно не действуют на глаза (не больше, чем обычная бумага). Кроме того, электронные ридеры – рекордсмены по экономии энергии среди всех типов компьютерных устройств, типовое время от зарядки до зарядки при часовом ежедневном чтении у них составляет две-три недели. Многие фирмы не оставляют попыток выпускать цветные электронные ридеры на основе обычных ЖК-дисплеев – по цене из-за дешевизны таких дисплеев они получаются практически вдвое дешевле «бумажных» ридеров сходных массогабаритных характеристик, но время автономной работы у них составляет в лучшем случае 6–8 часов, и они успешно заменяются обычными планшетами (тот же iPad иногда позиционируется в том числе и как устройство для чтения книг).

Если вы захотите обратить внимание на электронные читалки, то учтите, что они практически не позволяют с текстом работать. Идеальный контент для ридеров – художественная литература, для чтения технических и особенно иллюстрированных текстов они приспособлены плохо. В России и на Западе предпочтения публики в области электронных ридеров заметно различаются: на Западе в лидерах идут Amazon Kindle и Nook от Barnes & Noble, привязанные к соответствующим онлайновым книжным магазинам. А в России больше предпочитают Sony Reader и особенно различные модели PocketBook одноименной украинской фирмы – они к определенным сервисам не привязаны.

 

Глава 2

Мультимедиа

 

Точно так же, как и в случае с процессором, в наше время выбор видеокарты в 99 % случаев не имеет решающего значения. Еще в начале 2000-х годов это было не так – дешевые видеокарты могли не потянуть управление монитором высокого разрешения. К тому же на тогдашних мониторах, построенных на электроннолучевых трубках, очень большое значение имела максимальная частота смены кадров, которую могла обеспечить видеокарта. При частоте ниже 70–75 Гц глаза начинали быстро уставать, а слабые видеокарты могли не потянуть такую частоту при максимально возможных разрешениях экрана.

На ЖК-мониторах частота смены кадров не имеет значения (они не мерцают, и потому не действуют на глаза) и обычно всегда установлена на стандартном значении 60 Гц. Потому условия работы видеокарт даже упростились, и сейчас почти любая видеокарта поддержит почти любой монитор. Так на что же стоит ориентироваться при выборе видеокарты?

 

2.1. Выбор видеокарты

Выбору видеокарты посвящены многостраничные обзоры на специализированных сайтах, в которых ничего существенного не содержится. Дело в том, что большинство отличий современных видеокарт друг от друга сказываются лишь в самых «тяжелых» условиях – в полноэкранных трехмерных компьютерных играх. Причем наличие слабой видеокарты еще не означает, что эти игры не заработают вовсе – просто ограничится число кадров в секунду и, возможно, максимальное разрешение экрана, при котором игра запустится.

Если исключить такие экстремальные условия, то выбор видеокарты значительно упрощается – двухмерное (2D) изображение потянут практически все имеющиеся на рынке образцы. То есть если максимум графических задач, которые вы выполняете на компьютере, сводится к обработке плоских изображений (неважно, в Photoshop или AutoCAD), то много думать о приобретении видеокарты не придется. А просмотр и обработка видео на компьютере предъявляет даже меньшие требования, чем обработка больших плоских картинок – конечно, наличие аппаратного декодирования популярных форматов видео несколько ускоряет процесс, но это больше проявляется в меньшей загруженности центрального процессора (т. е. способствует выполнению параллельных задач), чем служит каким-то принципиальным усовершенствованием.

Следует обратить отдельное внимание на максимальное разрешение, которое обеспечит видеокарта при работе через различные выходы. Это особенно важно при наличии большого монитора, и проверить их совместимость никогда не мешает. Для подключения монитора более чем 1600x1200 (или широкоэкранного 1920x1080) нужен специальный двухканальный DVI-разъем (Dual-Link). Если видеокарта имеет два таких разъема (для подключения двух мониторов), то каждый из них должен потянуть указанное в характеристиках монитора максимальное разрешение (например, 2560x1600).

Многие видеокарты имеют два выхода, но один из них цифровой DVI, а другой – аналоговый VGA (иногда еще присутствует выход на телевизор по стандарту HDMI или более простому S-Video). Как правило, аналоговый VGA-выход имеет при этом меньшее максимальное разрешение, чем цифровой (напр. 2048x1536). При необходимости подключения двух мониторов в любом случае лучше выбрать вариант видеокарты с двумя одинаковыми цифровыми разъемами DVI. Как мы уже говорили, на частоту кадровой развертки при наличии цифрового монитора можно не обращать внимания – как правило, она для всех таких карт находится на уровне 60 Гц, и этого оказывается достаточно.

Следует также обратить внимание на количество видеопамяти, которое для 19-дюймовых мониторов 1280x1024 должно быть не меньше 64 Мбайт (128 Мбайт – для разрешений 1920x1200), а для многомониторных конфигураций требуемый объем видеопамяти должен быть умножен на количество мониторов. Современных видеокарт, имеющих меньшие, чем 64 Мбайт, объемы памяти, в природе просто не существует, а для встроенных объем используемой памяти обычно устанавливается через BIOS (см. заключение).

Примечание

При переходе на последние операционные системы от Microsoft (Windows 7) многих смущает наличие в этой ОС драйверов DirectX версии 11, которые поддерживают далеко не все видеокарты. DirectX – это набор графических программных средств, которые используются в основном для компьютерных игр, но отчасти и в интерфейсе этих операционных систем. На самом деле это требование излишне – Windows 7 может работать на видеокартах, поддерживающих DirectX версии 9. DirectX 9 вышли в 2002 году, и этому критерию отвечают абсолютно все видеокарты, начиная примерно с 2004 года.

Гораздо труднее подобрать видеокарту для компьютерных игр. Тут стоит помнить одно правило – видеокарту подбирают так, чтобы ее возможности не расходились с возможностями основного процессора. «Крутая» (и дорогая) видеокарта при слабом процессоре точно так же будет тормозить в играх, как более слабая, установленная в мощный системный блок. При таком подходе приходится учитывать множество параметров (тип и частоту графического процессора, объем видеопамяти в совокупности с разрядностью шины памяти и пр.) и без опыта найти оптимальное решение довольно сложно. Простейший метод, который тут можно порекомендовать, – изучение характеристик готовых компьютеров, предлагаемых различными «брендовыми» фирмами, и действия по аналогии.

Как и в случае центральных процессоров, основных изготовителей видеосистем всего два: это компании NVIDIA и ATI, причем последняя ныне является подразделением фирмы AMD (собственно, от ATI там осталось одно название серии видеокарт Radeon). Немногие модели встроенных в материнские платы видеосистем бюджетного уровня выпускает также Intel. Как уже говорилось в главе 1 «Начинка компьютера». Особенности мобильных компьютеров, некоторые современные процессоры Intel содержат содержат видеосистему прямо на кристалле процессора, и тогда думать о специальном выборе между встроенной и внешней видеокартой не приходится – при желании такую систему можно дополнить внешней видеокартой в любой момент.

Зато производителей собственно видеокарт не менее нескольких десятков. Правда, разнообразие моделей здесь значительно меньше, чем в случае материнских плат – как правило, производители видеосистем выдают образцовую конструкцию (т. н. референс-дизайн), а производителям потребительских продуктов остается только ему следовать по максимуму. Программную поддержку (драйверы) также выпускают основные производители. Поэтому большинство характеристик готовых видеокарт определяется графическим чипом, и подразделяются они по его типу. Разница в одних и тех же видеокартах от разных производителей может заключаться лишь в наличии или отсутствии тех или иных интерфейсов.

Практические рекомендации при выборе видеоадаптера могут сводиться к следующему:

♦ офисный/домашний компьютер минимальной конфигурации:

• NVIDIA: GeForce 210 или GT220/240;

• ATI Radeon: HD5450, HD5570, 5550.

Цена этих видеокарт не превышает 3 тыс. рублей, и по сути они мало чем отличаются от видео, интегрированного в материнскую плату или процессор. Зато, в отличие от последнего, несложно найти карту на основе таких типов, поддерживающую два монитора по цифровым интерфейсам DVI, и еще дополнительно выход на телевизор;

♦ офисный/домашний компьютер оптимальной конфигурации;

• NVIDIA: GTX 465, 460;

• ATI Radeon: HD5850, 5830, 5770, 5750.

Эти видеокарты позволят играть практически во все современные игры. Цена таких плат находится на уровне 6–7 тыс. рублей;

♦ игровой/медийный компьютер высокого класса:

• NVIDIA: GTX 480, 470;

• ATI Radeon: HD5970, 5870.

Цена таких видеокарт находится на уровне 10–15 тыс. рублей.

В некоторых случаях одну топовую видеокарту можно заменить на две одинаковые подешевле, получив практически такую же производительность. Чтобы две видеокарты могли быть объединены в одной конфигурации, они должны поддерживать соответствующую технологию, которая у NVIDIA носит название SLI, а у ATI/AMD – CrossFireX. При выборе такого варианта надо, во-первых, проверить возможности общего блока питания компьютера (две видеокарты могут потреблять более 150 Вт) и при необходимости заменить его на более мощный. Во-вторых, такое решение требует материнской платы с двумя разъемами PCI-Express x16, причем расположенными так, чтобы видеокарты друг другу не мешали. Потому на практике такое решение применяется редко.

 

2.2. Дисплеи и мониторы

Прежде всего о терминологии. Дисплей – это то, что демонстрирует информацию в наглядной форме. Информация может быть в текстовой форме (текстовый дисплей), в виде картинок (графический дисплей), в виде цифр или отдельных знаков (цифровой и знакосинтезирующий диплей), в виде положения стрелки или длины светящегося столбика (стрелочный или столбчатый дисплей, часто их называют индикаторами).

Текстовый или графический дисплей может входить в состав отдельного показывающего устройства, которое тогда называют монитором. То есть у настольного компьютера (не моноблока) – монитор, а у ноутбука или планшета – дисплей. Часто синонимом дисплея выступает слово «экран». Можно сказать «на экране монитора» или «на дисплее монитора» – оба выражения обозначают одно и то же.

Разобравшись таким образом с терминологией, перейдем к технологиям. Технологий получения изображения очень много, количество только самых ходовых из реально применяемых приближается к десятку. Но практически все выпускаемые сегодня компьютерные дисплеи (и те, что входят в состав мониторов, и те, что устанавливаются в мобильные устройства) основаны на наиболее хорошо проработанной жидкокристаллической технологии (ЖК, или, по-английски, LCD). Исключение представляют некоторые небольшие дисплеи смартфонов или планшетов, изготовленные на основе светодиодов (LED-дисплеи), а также плазменные телевизоры.

С LED-дисплеями не следует путать ЖК-дисплеи со светодиодной подсветкой, которые тоже часто называют сокращением LED. В них само изображение формируется на основе обычного ЖК-экрана, а светодиоды лишь служат для подсветки, вместо флуоресцентных трубчатых ламп в обычных дисплеях. На основе LED-подсветки делаются и компьютерные мониторы, и телевизоры. При выборе телевизора LED-подсветку стоит предпочесть практически во всех случаях (т. к. с ее помощью достигается более высокое значение контраста), кроме разве что соображений стоимости – такие телевизоры обычно дороже. Для компьютерных мониторов, в которых контраст не играет решающего значения (по крайней мере, пока вы не захотите превратить их только в устройство для просмотра фильмов), выбирать монитор только из-за LED-подсветки не стоит.

Для мониторов куда большее значение имеет цветопередача, зависящая от технологии самой ЖК-матрицы. Основных таких технологий три: TN (или TN+film), PVA (и ее менее популярная разновидность под названием MVA) и IPS – есть также несколько модификаций каждой из них. Чтобы не путаться в терминах, учтите, что сокращение TFT (Thin-Film Transistor, тонкопленочный транзистор) ничего не говорит о качестве матрицы, поскольку все ЖК-матрицы являются TFT-матрицами, и термин «TFT-монитор» по сути можно считать просто синонимом «ЖК-монитора».

♦ TN – самая дешевая и массовая технология, по ней делают практически все плоские телевизоры и недорогие мониторы. Визуально отличить TN-матрицу от любого другого типа можно по сильному потемнению (вплоть до инвертирования) изображения при взгляде снизу даже под сравнительно небольшим углом. Дисплеи ноутбуков также в большинстве основаны на TN-технологии. В рамках этой технологии качество экрана может очень сильно колебаться (особенно страдают углы обзора), потому покупать «не глядя» системы с дешевыми дисплеями не следует, их качество может меняться даже в рамках одной модели из разных поставок. Топовый ноутбук MacBook Pro и дешевый Toshiba серии А оба имеют экраны, выполненные по TN-технологии, но разница между ними будет разительной. И не надейтесь приобрести ноутбук за тысячу долларов с качественным экраном – более-менее приличная цветопередача и углы обзора начинаются в ноутбуках с ценой ближе к двум тысячам долларов.

TN-мониторы часто пытаются улучшить нанесением глянца на поверхность экрана (у разных производителей эта технология носит разные названия: BriteView, CrystalBrite, OptiClear, X-brite, X-Black, Crystal View и т. п.). В ноутбуках это действительно может помочь, визуально повышая контраст и улучшая цветопередачу. Но в настольных мониторах, на которые смотрят с относительно большого расстояния (полметра и более), глянцевое покрытие только мешает, отражая окружающие предметы. Потому мониторы «с глянцем» стоит покупать с оглядкой, хотя встречаются люди, которым они нравятся даже больше обычных матовых.

♦ PVA-технология по качеству занимает промежуточное положение – такие мониторы дают самый большой контраст из всех матриц, и углы обзора у них гораздо выше, чем у TN, потому они отлично подходят для офисной работы. Цветопередача же у них иногда даже хуже, чем у TN-матриц – при взгляде перпендикулярно экрану матрица теряет некоторую часть оттенков, которые вновь появляются при небольшом отклонении вбок (это явление носит название «цветового сдвига»).

♦ Об отличном качестве цветопередачи и достаточных углах обзора однозначно можно говорить только в случае IPS-технологии. Но такие мониторы могут быть в несколько раз дороже бюджетных – так, популярный NEC MultiSync LCD2090UXi с диагональю 20 дюймов и разрешением 1600x1200 стоит около 25 тыс. рублей, тогда как PVA-монитор с такой диагональю и таким же разрешением можно купить за вдвое меньшую цену. А широкоэкранные TN-мониторы с такой же диагональю (но, правда, с меньшим разрешением – 1600x900) можно найти и за 4–5 тысяч рублей.

Примечание

Несмотря на то, что ЖК-мониторы выпускаются достаточно давно, цены на них явно не устоялись – объясняется это появлением все новых поколений матриц. Потому при подборе монитора не стоит торопиться и покупать первый приглянувшийся экземпляр. Сравните, например, три почти идентичные 24-дюймовые модели: ASUS PA246Q, DELL UltraSharp U2410 и NEC MultiSync PA241W, из которых первые две практически в два раза дешевле последней. Секрет раскрывается просто – в 2010 году новые поколения IPS-матриц заметно подешевели, а PA241W был выпущен еще до этого снижения (особенность NEC, как производителя мониторов, – эта корпорация практически не снижает однажды установленные цены на свои модели). Причем все три модели производители отнесли к профессиональному классу (они могут воспроизводить десятибитный цвет в каждом канале, т. е. более 1 миллиарда оттенков), но по крайней мере первые два по цене вполне укладываются и в любительский сектор. Ныне можно приобрести и достаточно приличный бытовой монитор на IPS-матрице примерно за 12–14 тыс. рублей (например, DELL U2311H).

IPS-матрицы, по крайней мере, старых выпусков, можно отличить по характерному фиолетовому оттенку, появляющемуся на черном цвете при взгляде сбоку с угла монитора. Ранее считалось, что IPS-технология самая медленная из всех, и потому она не «тянет» в динамичных играх по величине параметра, называемого временем отклика. Сейчас это представление не соответствует действительности – новые поколения IPS-матриц стали достаточно скоростными для всех применений. А вот в ноутбуки в последнее время вовсе перестали ставить IPS-матрицы – достаточно улучшенных TN, поскольку фотографии на небольших экранах ноутбуков все равно профессионально не обрабатывают, и переплачивать за качество матрицы никто не желает.

Зато матрицы высокого качества (в том числе и выполненные по IPS-технологии) стали устанавливать на популярные ныне планшеты. Тон задала Apple, поставив в iPad IPS-матрицу с разрешением 1024x768 пикселов, затем они появились и в других подобных устройствах (например, в ASUS Transformer). На момент редактирования этой книги обсуждаются новости, что Apple: а) тестирует для нового поколения iPad матрицы повышенного разрешения (QXGA – 2048x1536); б) рассматривает в качестве варианта для iPad дисплеи, изготовленные по новой технологии Super PLS, изобретенной в Samsung и превосходящей дисплеи типа IPS по качеству.

Как определить тип установленной матрицы?

Производители не всегда указывают тип установленной матрицы, особенно для дешевых мониторов. Иногда отличить можно косвенно, по другим приведенным характеристикам. Если в характеристиках указано просто TFT (или вообще LCD или ЖК-матрица), то это наверняка TN. Кроме того, можно ориентироваться по заявленным углам обзора – если они ниже 170° по горизонтали и вертикали (например, 168/168), это явно указывает на TN-матрицу. Для всех остальных современных экранов (MVA, PVA и S-IPS) углы обзора составляют 170/170, 176/176 или 178/178. Кроме того, для TN вертикальные углы обзора часто меньше горизонтальных (к примеру, 140/135), у всех остальных типов горизонтальные и вертикальные углы всегда одинаковые. По этой причине мониторы, которые могут менять ориентацию (портретное-ландшафтное расположение), почти наверняка сделаны не на TN-матрице.

Определить визуально наличие цветового сдвига у PVA-матриц, а также поймать фиолетовый оттенок на IPS-матрицах, который проявляется, например, на черном поле в момент загрузки компьютера, без некоторого опыта тоже сложно, к тому же производители все время совершенствуют технологии. Надежно отличить IPS от PVA/MVA и TN позволит утилита Leka.exe, размещенная на прилагаемом компакт-диске в папке Color. Запустите файл Leka.exe и ползунком в верхней части окна добейтесь максимального совпадения по цвету всех прямоугольников, глядя на окно утилиты строго перпендикулярно экрану. Затем отклоните голову под достаточным углом – если перед вами MVA/PVA или, тем более, TN, то квадрат опять распадется на разноцветные прямоугольники, на всех разновидностях IPS цвета прямоугольников под углом останутся без изменения.

С помощью Leka.exe можно также оценить неравномерность экрана, в том числе и IPS. Если выставить максимально равномерную заливку тестового квадрата в центре экрана, а затем подвигать по нему окно утилиты, то в других местах, особенно в углах, квадрат заметно распадается на цветные прямоугольники. Это не является браком, и практически незаметно для глаза, но так можно сравнить между собой несколько экземпляров мониторов и выбрать лучший.

Но вне зависимости от технологии при выборе монитора нужно учитывать его собственное разрешение – то, что указывается в технических характеристиках. Собственно, именно по разрешению, а не по размеру диагонали, стоит выбирать ЖК-мониторы в первую очередь – оно является определяющей характеристикой. Отклоняться от паспортного значения здесь решительно не рекомендуется, причем не только в сторону увеличения (что, как понимаете, бессмысленно), но, как ни парадоксально, и в сторону уменьшения. Для обычных 15-дюймовых мониторов при попытке установить на паспортных 1024x768 разрешение 800x600 интерполяция настолько размоет картинку, что даже текст в Word разобрать будет затруднительно.

Обычные 17-19-дюймовые мониторы имеют разрешение 1280x1024, что на мой вкус, для 17" – слегка мелковато, а для 19" – наоборот, крупновато. Для диагонали 20–21 дюйм можно выбирать широкоэкранный монитор 1600x1050 или обычный (с соотношением сторон 4:3) 1600x1200, для 22-дюймового оптимальное разрешение соответствует Full HD (1920x1080), для 24-дюймового – 1920x1200. Большие диагонали для домашнего непрофессионального использования выбирать нецелесообразно – качественный монитор 27 или 30 дюймов стоит недешево, и в таком случае лучше купить два монитора поменьше размером, в общей площади экрана и удобстве пользования вы только выиграете.

Для ноутбуков стоит выбирать разрешение побольше, чем для настольных мониторов (встречаются даже ноутбуки с дисплеем 15 дюймов при разрешении 1920x1200) – там экран рассматривается с близкого расстояния, и на меньшей площади можно уместить больше различимых деталей.

У дешевых мониторов обращайте внимание на наличие цифрового интерфейса DVI – не стоит портить и без того некачественную картинку еще и аналоговым интерфейсом. Все плоские мониторы по природе цифровые, и при работе через аналоговый интерфейс VGA (разъем D-Sub) приходится делать преобразование дважды: сначала цифроаналоговое в видеокарте, а затем обратное – в самом мониторе. Это, как вы понимаете, отнюдь не улучшает и без того не слишком качественную картинку бюджетного монитора. Добавим, что во многих современных мониторах имеется USB-концентратор, который позволяет не тащить клавиатуру и мышь к системному блоку (куда-нибудь под стол), а подключать их прямо к монитору.

Вот собственно, и все важное, что следует учитывать при выборе монитора. Стоит добавить, что если у вас задержался старинный ЭЛТ-монитор (на основе кинескопа), то его следует при первой возможности сменить на современный плоский. В начале 2000-х годов, когда ЖК-мониторы только начинали появляться, они были несовершенными и по всем характеристикам отставали от ЭЛТ, особенно по скорости работы и по цветопередаче. Сейчас это отставание ликвидировано, и преимущества ЖК-мониторов вышли на первый план. Они легче, компактнее, не имеют геометрических искажений, меньше потребляют энергии, не создают существенных магнитных полей, не требуют размагничивания (Degauss) при перемещениях. Наконец, они гораздо меньше утомляют глаза, потому что изображение на ЖК-мониторах не мигает, и от видеокарты не приходится требовать высоких значений частоты кадровой развертки.

Любой монитор не следует эксплуатировать в темной комнате в отсутствие внешнего освещения – из-за контраста между темным окружением и ярким экраном глаза будут уставать даже при работе с современными мониторами, у которых мерцание отсутствует. Яркость окружения должна быть либо равной яркости экрана, либо незначительно меньше ее (кстати, это одна из причин, по которой несветящиеся экраны букридеров на основе электронной бумаги значительно комфортнее для глаз, чем обычные ЖК-экраны, – их яркость всегда соответствует яркости освещения и не констрастирует с фоном). Чтобы глаза уставали меньше при длительной работе, стоит установить монитор настольного компьютера так, чтобы сзади него оставалось свободное пространство до стенки не меньше метра – чем больше, тем лучше. В этом случае глаза будут менять аккомодацию при взгляде мимо монитора и меньше уставать.

Как вынести монитор в другую комнату?

Такая задача возникает у домашнего/офисного пользователя редко, но вдруг случится, что вы захотите приспособить компьютер для таких задач, как показ кинофильмов в гостиной, мониторинг домашней сети, слежение за обстановкой в подъезде? Размещать монитор тогда удобно не рядом с системным блоком, а в том месте, где на него смотрят. Причем это, вероятно, будет второй монитор – придется приобрести карту с двумя DVI-выходами, объявить для них режим клонирования (когда оба монитора дают идентичные картинки) и один, размещаемый рядом с системным блоком, подключить прямо к ней, а вот куда воткнуть второй, удаленный – это вопрос, который не решается прямо с налета. Вынести монитор почти сколь угодно далеко (как минимум на несколько десятков метров) не представляло трудностей для VGA-картинки низкого разрешения, характерного для DOS. Это продолжалось примерно до разрешения 1024x768, а вот все, что выше этого, потребовало более сложных решений, и простые и дешевые VGA-удлинители в одночасье исчезли с прилавков.

На самом деле вопрос решается с помощью удлинителей HDMI, который фактически есть тот же DVI – они совместимы на уровне простых переходников. А кабель для них – это обычная витая пара категории 5, такая же, как в сетях Ethernet. Купите удлинитель HDMI (например Dr.HD EXW 50DK). Он довольно дорог (под 3 тыс. рублей), и представляет собой два идентичных адаптера, с одной стороны с разъемом HDMI, с другой – по два одинаковых RJ-45, как у сетевой карты. Сигнал передается по двум витым парам, длиной до 30 метров (их можно купить нужной длины, разъемы установит продавец прямо в вашем присутствии). Если монитор или видеокарта не имеют входов-выходов HDMI, то придется приобрести переходники DVI-HDMI (они совсем дешевые). Аналоговый выход видеокарты DVI-A, понятно, тут не подойдет (он часто идет в одном разъеме вместе или вместо цифрового DVI-D, но на самом деле есть просто такой же VGA, только выведенный на другой разъем).

Более интересный и менее хлопотный, но пока еще довольно дорогой вариант представляет собой новый беспроводной стандарт специально для передачи HDMI под названием WHDI (Wireless Home Digital Interface, беспроводной домашний цифровой интерфейс), разработанный израильской компанией Amimon. Устройства с этим интерфейсом представляют собой аннтенки, передающую и приемную, втыкаемые прямо в HdMI (для нашего случая – в переходник DVI-HDMI) на обоих концах линии. О них еще пока известно в основном из рекламы, но единственный практический отчет, который мне встретился, очень хвалил технологию – утверждали, что работает без заметных проблем на расстоянии до 15–20 метров, в том числе и через перегородки (теоретически до 30 метров, но возможно ухудшение качества). А самое главное, в этом варианте приемных мониторов может быть теоретически сколько угодно, и расставлять их можно в любом месте, передвигая по мере надобности.

В заключение – один вопрос, которому редко уделяется достаточное внимание. Иногда производители вкладывают в коробку диск с отдельным драйвером монитора. Нужно ли его устанавливать? На самом деле такой драйвер для современных мониторов не требуется – все его функции настойки выполняются либо кнопками на корпусе монитора, либо драйвером видеокарты, либо другими программами. В некоторых старых моделях мониторов драйвер был предназначен для того, чтобы пользователь не мог задать недопустимые режимы, могущие повредить монитор. У современных мониторов таких режимов нет, да и тогда никакой полезной функции, сверх этих ограничений, драйвер монитора не выполнял. Если ваш монитор не работает как следует, то ищите причину в режимах видеокарты, драйвер монитора к этому не имеет никакого отношения.

 

2.3. Калибровка монитора

Во-первых, насколько она нужна? Если вы на своем мониторе только набираете текст и путешествуете по веб-сайтам, то калибровка монитора может и не потребоваться. Желательность ее проявляется тогда, когда вы начинаете обмениваться с друзьями (или с учреждениями, вроде редакций СМИ) всяческими графическими материалами, которые в идеале должны одинаково отображаться на всех экранах. Самый простой такой случай – размещение фотографий на фотогалереях в Сети. Нехорошо, если они у вас выглядят нормально, а у всех других будут отдавать в зелень или окажутся слишком темными. Большинство мониторов не потребуют никакой коррекции, но стоит, как минимум, это проверить.

Во-вторых, насколько возможна калибровка монитора в домашних условиях? Это вопрос очень неоднозначный, и ответ зависит и от монитора, и от видеокарты, и от квалификации пользователя. Полная калибровка и выстраивание объективно полученного цветового профиля – дело сложное и теоретически, и практически, требующее специального недешевого оборудования, знаний, терпения и времени. Кроме того, калибровка только одного монитора – дело в значительной степени бессмысленное, если одновременно не откалибровать и сканер, и принтер, но эти процессы любителю практически недоступны или, как минимум, дороговаты. Отсюда вытекает такой ответ на поставленный вопрос: нет, полную калибровку в домашних условиях провести неквалифицированному пользователю практически невозможно.

А что можно? Можно максимально подогнать под желаемые значения яркость и контраст, установить точку белого, баланс цветов (чтобы оттенки серого были серыми, а не цветными).

Гамма-коррекция

Понятие о гамма-коррекции пришло из эпохи мониторов и телевизоров на электроннолучевых трубках. В них яркость пиксела (т. е. количество излучаемых фотонов) нелинейно зависит от величины сигнала на модуляторе кинескопа. В кинескопах эта зависимость с большой точностью описывается степенным уравнением Out = In γ , где Out – выходной сигнал, In – входной, а γ  – коэффициент гамма-коррекции. Предполагается, что величина входного сигнала в формуле нормализована (т. е. меняется от 0 до 1), и тогда вся кривая будет выглядеть так, как показано на рис. 2.1, где для наглядности шкала входных и выходных полутонов вместо нормированной шкалы от 0 до 1 поделена на 255 градаций.

Рис. 2.1. Кривая гамма-коррекции

Поскольку до некоторой поры все телевизоры и мониторы в мире были электроннолучевыми, для них и приняли стандарт гамма-коррекции. Если бы гамма-коррекции не существовало, то изображение выглядело бы гораздо темнее, и в темных участках нельзя было бы разобрать полутона. Для новых типов дисплеев, не применяющих электронно-лучевые трубки, зависимость яркости от сигнала совсем другая (и более сложная), но в целях унификации гамма-коррекцию оставили. Для бытовых компьютерных мониторов после некоторых колебаний был принят стандарт sRGB (IEC 61966-2.1), согласно которому значение? должно составлять 2,2. Менять его принудительно для всего монитора в целом иногда приходится (особенно в отдельных цветовых каналах при цветокоррекции), но лучше оставить коэффициент гамма в неприкосновенности. Если гамма монитора будет отличаться от стандартной, то изображения станут выглядеть иначе, чем на стандартном мониторе. При сильном искажении (например, в фотографиях, получаемых с цифровой камеры), лучше скорректировать гамму не монитора, а самой фотографии, что позволяет сделать большинство графических редакторов, включая бесплатный IrfanView. С помощью инструмента Curves в пакете Photoshop (и аналогичных инструментов в других редакторах) можно менять гамма – кривую изображения (не монитора!) практически произвольным образом.

Сразу отметим, что не каждый монитор позволяет отрегулировать все параметры. В ряде современных недорогих дисплеев на TN-матрицах, например, отсутствует регулировка контраста. Такие дисплеи поддаются калибровке только ограниченно, но они и приобретаются обычно для таких целей, когда сама калибровка оказывается необязательна. Не пытайтесь также настраивать современные мониторы с помощью утилиты Adobe Gamma, как это часто рекомендуют: во-первых, она ориентирована на ЭЛТ-мониторы (и именно потому из современных версий Photoshop исключена), во-вторых, она, скорее всего, просто не заработает – для этого потребуется отключить фирменные настройки драйвера.

Самую простую калибровку можно произвести с помощью сайта photosight.ru. Загрузите заглавную страницу этого сайта, и на самом верху вы увидите полоску с градациями от черного до белого, обозначенными величиной процента яркости (рис. 2.2). Смотрим на полоску и крутим регулировки яркости и контраста на дисплее, добиваясь, чтобы последняя черная полоска отличалась от следующей тёмно-тёмно-серой и последняя белая полоска отличалась от предыдущей почти белой.

Рис. 2.2. Калибровочная полоска на сайте photosight.ru

Более точную настройку яркости и контраста можно выполнить следующим образом: откройте с прилагаемого диска изображение из файла 0-255-0.tif (он находится в папке Color). Там на белом и черном фоне написаны цифры оттенком серого. Общее правило такое – слишком большая контрастность приводит к исчезновению цифр на белом фоне, низкая контрастность приводит к исчезновению цифр на черном фоне. Для начала проще всего выставить регулировками монитора контраст (Contrast) в максимум (100 %), а яркость (Brightness) – в нулевое значение. Затем увеличиваете яркость до тех пор, пока не сможете увидеть максимальное количество чисел на черном фоне, при этом сам фон должен оставаться черным, без серого оттенка. Закончив этот процесс, переходите к регулировке контраста и уменьшаете его до получения максимального количества цифр на белом фоне (белый также должен оставаться белым, без серого оттенка). Если при этом видимость цифр на черном фоне «уехала», то вернитесь к яркости и повторите обе регулировки (возможно, это придется сделать не один раз).

Проверить полученную настройку можно с помощью картинки из файла shahmati.gif, который находится на диске также в папке Color. Даже небольшое увеличение контраста от оптимального значения приведет к неразличимости шахматных клеток на белом фоне.

Учтите, что неправильно выбранный цветовой профиль монитора тоже может искажать картинку. Потому, прежде чем бросаться крутить какие-то настройки, стоит проверить, не выбран ли в данной программе какой-то экзотический профиль. В Adobe Photoshop это пункт Edit | Color settings (Правка | Установки цвета). Во всех других подобных программах это пункт с аналогичным названием в настройках – например, Color management (Управление цветом). Там должно стоять название профиля, содержащее название стандарта «sRGB» (например, в Photoshop это будет «sRGB IEC 61966-2.1»). При конвертации RAW-файлов с цифровой камеры в программе конвертации также стоит выбирать цветовое пространство sRGB (RAW-конвертер Adobe, встроенный в Photoshop, по умолчанию предлагает AdobeRGB, в котором фото на обычных мониторах будут выглядеть тусклее и темнее).

Стоит проверить также вкладку Управление цветом в свойствах видеоадаптера – именно указанный там профиль управляет оттенками в тех программах, где собственного управления цветом нет (скажем, в Internet Explorer). В Windows XP этот пункт можно найти через свойства рабочего стола (вкладка Параметры | Дополнительно | Управление цветом). В Windows Vista и 7 – Панель управления | (Все элементы панели управления) | Управление цветом. В соответствующем пункте для монитора поле должно быть пустым, или в нем также должно стоять название, содержащее «sRGB».

Совет

Убедившись в этом, стоит еще раз проверить, нормально ли отображаются цвета, и лишь при каких-то нарушениях переходить к более кардинальным настройкам, чем простая регулировка яркости и контраста, – вернуть их на место потом может оказаться довольно сложно.

Более сложную калибровку можно провести с помощью программ настройки, которые обычно идут в комплекте с драйвером видеокарты. Например, для видеокарт NVIDIA эта программа называется Панель управления NVIDIA, и ее можно найти в панели управления или в свойствах видеоадаптера. Если позволяют настройки монитора, то нужно начать с них, как описано ранее, а эти программы служат для тонкой доводки изображения через видеоадаптер.

Точку белого можно установить с помощью этих программ или настроек монитора, изменив значение цветовой температуры. В качестве эталона при этом служит лист обычной белой бумаги, освещенный тем источником света, которым вы больше всего пользуетесь на практике. В офисе это, наверное, будет верхнее освещение, дома – настольная лампа совместно с рассеянным светом из окна. Выведите на монитор изображение белого поля (например, откройте новый пустой документ в Word) и положите лист бумаги рядом с монитором. С помощью пункта Цветовая температура (Color temperature) выставьте такое значение, при котором оттенки белого поля и листа бумаги будут совпадать.

При настольной лампе совместно с рассеянным светом из окна установленная цветовая температура, скорее всего, окажется около 5500°. Если монитор позволяет установить только ограниченное число значений цветовой температуры (например, только 6500 и 9300 °К), то установите наиболее близкое по белому листу. Затем регулировками красного, синего и зеленого каналов в программе настройки видеокарты доведите изображение белого поля на мониторе до максимальной схожести по оттенку с белым листом.

Отдельными регулировками красного, синего и зеленого каналов через программу настройки видеокарты можно отрегулировать и самый сложный случай – когда шкала градаций серого (подобная той, что на сайте photosight.ru) показывает цветовые отклонения в средних по плотности тонах – белый остается белым, черный – черным, тогда как некоторые оттенки серого выглядят окрашенными. В ЖК-мониторах такое случается редко, и характерно лишь для старинных ЭЛТ-мониторов.

Проверить установку баланса цветов и точки белого можно, например, с помощью изображений из файла money.colour.tif (находится на диске в той же папке Color), сравнив их с оригиналами, которые всегда есть под рукой у каждого. Если вы наблюдаете какие-то раздражающие отклонения, то для более точной настройки в ОС Windows 7 есть специальная программа Калибровка цветов экрана, которая во многом заменяет и Adobe Gamma, и фирменные утилиты производителей видеокарт. Инструкцию по работе с этой программой можно найти на сайте Microsoft (см. ).

 

2.4. Проблемы установки качественной аудиосистемы и ее необходимость

Еще недавно выбирать аудиокарту приходилось, исходя из имеющихся потребностей, толщины кошелька и возможностей к приобретению всего необходимого внешнего оборудования. Сейчас все встроенные в материнскую плату аудиокарты практически сравнялись по возможностям, стали обязательным оборудованием, и отдельные аудиокарты почти исчезли из продажи. Но выбирать в целом аудиосистему все равно приходится, потому что сама по себе аудиокарта, какая бы она ни была, еще не обеспечивает качественного звучания. Его можно достичь только в комплексе по всей цепочке: от записи на носитель, до колонок и даже дальше – до акустических особенностей помещения.

Дело построения и балансирования подобной системы очень непростое, недешевое и требует специальных знаний. Если в каком-то звене будет допущена слабина (например, вы собираетесь проигрывать MP3-записи, скачанные из Интернета, или соседи вам не разрешают включать колонки на достаточную громкость), то и все остальные звенья окажутся излишними – деньги и усилия будут потрачены зазря. Потому сначала стоит поговорить о том, в каких случаях стоит стремиться к достижению наивысших характеристик аудиосистемы, а в каких – это нецелесообразно или просто невозможно.

Известный автор и исполнитель бардовской песни Сергей Никитин как-то заметил, что один его друг-поэт вполне может слушать записи песен из радиоточки. Таким сравнением он хотел, видимо, показать исключительную непритязательность музыкальных вкусов своего друга. Суть, однако, в том, что огромное большинство потребителей музыки вполне находятся на том же уровне – им по большому счету все равно, на какой аппаратуре все это звучит. Никто, конечно, не будет отказываться прослушать запись или звуковое сопровождение к фильму на новейшей многоканальной аппаратуре, но в быту нас в большинстве сопровождают звуковые устройства: автомагнитолы, карманные плееры, компьютерные колонки, иногда встроенные в монитор, – которые по своему качеству недалеко ушли от этой самой радиоточки. Приобретать, устанавливать и конфигурировать современную звуковую аппаратуру – недешевое и хлопотное занятие, к тому же требующее достаточно физического места.

Есть и еще одно обстоятельство. В качестве современных городских и загородных жилищ, по крайней мере в достаточно развитых странах, человечество сделало огромный скачок вперед. Еще лет сто-сто пятьдесят назад такие блага цивилизации, как центральное отопление, канализация и даже водопровод были абсолютно недоступны большинству проживающих в Европе или Америке. Количество жилой площади на душу населения даже в развитых странах было минимальным, и лишь в богатой Америке в первой половине XX века постепенно стал устанавливаться обычай проживать каждому в отдельной комнате.

С тех пор строительные технологии резко подешевели, появилась строительная индустрия и упала доля медленного ручного труда, потому стандарты качества жилья постепенно выросли. Но в области звукоизоляции современные жилища не могут даже близко сравниться с каким-нибудь средневековым замком. В нем люди непрестанно мерзли и болели, спали вповалку в общем зале на соломе, но вот со звукоизоляцией там все было в порядке, хотя специально об этом едва ли кто заботился. Не приходит в голову задуматься об этом и современным строителям. А ведь городские бетонные коробки в этом смысле куда хуже, чем даже кирпичные дома ручной постройки XIX и начала ХХ века – бетонные перекрытия являются отличным каналом для распространения звука, особенно низких частот.

Потому эксплуатировать настоящую качественную звуковоспроизводящую аппаратуру в современных городских квартирах – автоматически означает навлечь на себя неудовольствие соседей. Не все люди к этому чувствительны, но одна даже не слишком громко «звучащая» квартира распространяет звук на десятки помещений в округе, и просто по теории вероятностей в них обязательно найдется кто-то, для кого это будет невыносимо.

Может показаться, что я преувеличиваю проблему, но можно с цифрами в руках показать, что это не так. Качественная звуковая аппаратура в первую очередь означает, что она может воспроизводить большой динамический диапазон, характерный для реальных источников звука, – иначе громкие звуки просто «обрежутся», и никакого воспроизведения high fidelity (высокой верности) вы не получите. Причем этот диапазон для классической музыки, исполняемой симфоническим оркестром, значительно больше, чем для развлекательной или для рок-музыки, которую обычно принято исполнять просто громко. В доказательство послушайте качественную запись оркестра, исполняющего чего-нибудь вроде «Кармен» Жоржа Бизе – там динамический диапазон достигает 100 дБ по уровню сигнала (т. е. разница между самыми громкими и самыми тихими звуками примерно в сто тысяч раз). И если «сделать потише», то тихие скрипки вы просто перестанете слышать.

Потому рок-концерт или какую-нибудь попсу, равно так же как и бардовскую песню, отличающиеся невысоким динамическим диапазоном, еще относительно легко проигрывать на таком уровне громкости, чтобы и соседей не беспокоить, и удовольствие получить, а вот с классической музыкой такой фокус не проходит.

Возвращаясь к радиоточке, упомянутой Сергеем Никитиным, заметим, что все-таки по таким «массовым» каналам (FM-радио, записи на компакт-диск, MP3-файлы) приходится распространять в том числе и «Кармен», и орущие рок-группы, и задушевные романсы. Чтобы все это можно было слушать где угодно, приходится звуковой сигнал компрессировать – уменьшать его динамический диапазон так, чтобы он уложился в возможности даже самой непритязательной аппаратуры. Сама аппаратура это делать «умеет» далеко не всегда, потому озаботиться приходится еще при записи.

Мораль из этого длинного вступления такова – прежде чем принимать решение о приобретении качественной звуковой аппаратуры, задумайтесь о том, что именно вы будете на ней воспроизводить. И если ваши вкусы не выходят за пределы MP3-записей популярной музыки, то, скорее всего, такая аппаратура будет для вас просто бесполезна. Вполне сойдут и самые дешевые компьютерные колонки, причем у вас заодно не возникнет искушения беспокоить соседей. Хорошей и недорогой альтернативой такому подходу будет приобретение качественных (только действительно качественных!) наушников – они и соседей не трогают, и вполне способны воспроизводить многоканальный звук с достаточным динамическим диапазоном.

Пожалуй, единственный случай, когда действительно имеет смысл озаботиться самой качественной аппаратурой – это наличие у вас возможности обустроить себе домашний кинотеатр. Домашний кинотеатр – это, прежде всего, качественный звук, а уж потом большой экран или проектор. Заодно кинотеатр может выступать в качестве высококачественного звуковоспроизводящего устройства, на котором действительно можно адекватно проигрывать и записи классической музыки в формате DVD-Audio – попробуйте как-нибудь послушать, получите ни с чем не сравнимое удовольствие. Причем возможности такого центра далеко перекрывают качества ностальгических аналоговых «вертушек» (которые и в самом деле могут быть лучше цифрового звука, но лишь в сравнении с относительно недорогими цифровыми системами и «ширпотребовскими» записями). Но первичной тут является даже не стоимость такой системы, а именно физическая возможность – глупо городить ее в малогабаритной городской квартире, вовлекая себя в непрестанные ссоры с соседями, и к тому же заведомо ограничивая качество характеристиками неприспособленных к тому помещений.

Именно потому я и говорил в беседе о материнских платах, что стандартные звуковые системы, прилагающиеся к современным компьютерным системам, в большинстве случаев совершенно избыточны. 5.1-канальный звук хорош именно в составе домашнего кинотеатра, громоздить вокруг рабочего компьютера многочисленные колонки чаще всего не позволяет место – в большинстве случаев к компьютеру подключают обычные стереоколонки или наушники. Не забудьте еще, что компьютер, даже самый тихий, если только он не проектировался специально для целей звукозаписи (есть и такие), всегда шумит вентиляторами на уровне около 30 дБ. А этот шум «сожрет» треть динамического диапазона вашего суперкачественного звукового усилителя. Конечно, компьютер можно использовать в качестве центрального устройства медиасети, подключив к нему телеприемник или колонки в другой комнате, но не проще ли будет приобрести для этого отдельное специализированное проигрывающее устройство?

 

2.5. Настройка аудиосистемы

Обсудив таким образом целесообразность установки «навороченной» аудиосистемы, перейдем к настройкам обычной. В сервисных программах, прилагающихся к драйверу аудиосистемы, встроенной в материнскую плату, обычно наглядно указывается, куда чего подключать, и это не вызывает трудностей. Трудности могут быть лишь с установкой драйвера – нередко имеющийся на диске драйвер конкретной аудиокарты предполагает поддержку High Definition Audio со стороны операционной системы.

Это не вызывает трудностей в современных версиях Windows Vista и Windows 7, но может служить препятствием в старых версиях Windows XP. К сожалению, комплекты обновлений, которые содержат соответствующий компонент, обычно также включают еще много чего лишнего, потому просто интегрировать их полностью в устанавливаемую систему вы можете не захотеть (см. по этому поводу в главе 8 разд. 8.5 «К вопросу об автоматических обновлениях»). Если же вы все-таки решили такое проделать, то см. главу 9 «Установка оборудования в Windows».

В противном случае, если у вас такая проблема возникла, и аудиосистема не работает, несмотря на все установленные с прилагаемого к материнской плате диска программы, а в окне Панель управления | Система | Диспетчер устройств показывается неопознанное устройство (или несколько таких устройств), то попробуйте проделать следующее. Подключитесь к Интернету, вызовите мастера установки оборудования в панели управления (можно щелкнуть правой кнопкой на неработающем устройстве в Диспетчере устройств и обратиться к пункту Обновить драйвер) и отметьте в нем пункт, который обычно старательно обходят: Разрешить подключение к узлу Windows Update для поиска программного обеспечения. Скорее всего при этом все установится, но чтобы заработало окончательно, возможно, придется еще раз установить драйвер аудиокарты с прилагаемого диска.

Следует также учитывать, что после этих установок в перечне Диспетчера устройств у вас может оказаться сразу много устройств High Definition Audio – в видеокарте тоже может быть свое такое устройство, если она снабжена выходом на телевизор (в моем случае – видеокарта NVIDIA GT 240 с ТВ-выходом – таких устройств почему-то даже целых четыре). В этом случае, возможно, придется еще раз устанавливать и драйвер видеокарты, иначе устройство будет показываться как неработающее с желтым восклицательным значком. В общем, все на благо человека…

Проблемы могут быть и с подключением аудиоразъемов на передней панели корпуса. Если они не работают, то, прежде всего, следует проверить, подключены ли они физически к материнской плате. Многие самодеятельные сборщики просто ленятся их подключать и особенно проверять – часто потому, что без операционной системы проверить затруднительно, а у них она еще не установлена, и проще, считают они, не подключать вовсе, сделав вид, что так и надо (то же, кстати, относится и к USB-разъемам на передней панели). Положите перед собой руководство к вашей материнской плате и хотя бы поверхностно проверьте, что все рекомендации соблюдены. Стоит, например, убедиться в том, что на материнской плате нет специальной перемычки, отключающей эти передние (фронтальные) разъемы, а если она есть, то находится в правильном положении.

Далее проверьте в сервисной программе драйвера звукового адаптера (она должна находиться в панели управления отдельно от других) наличие пункта Параметры разъема (это на вкладке, называемой Звуковые входы-выходы). Если таковой имеется, то расставьте в нем флажки, как показано на рис. 2.3. У других производителей встроенного аудио аналогичные пункты могут быть расположены в других местах.

Рис. 2.3. Настройки для аудиоразъемов передней панели корпуса

Если все же разъемы не работают, то следует еще обратиться к BIOS. Подключены эти фронтальные разъемы могут быть в двух вариантах, называемых AC97 и HD Audio. Надо зайти в BIOS, обратиться к пункту Advanced/Onboard Device Configuration и разыскать там пункт под названием Front Panel Support Type. Попробуйте изменить там вариант подключения с AC97 на HD Audio или наоборот и перезапустите компьютер. Если все остальное сделано правильно, то в конечном итоге в каком-то из вариантов звук появится.

 

Глава 3

Компьютерные порты

 

Основными компонентами компьютера, как известно, являются процессор и память. Такая двухкомпонентная система вполне самодостаточна, однако она представляет собой черный ящик в чистом виде и способна работать только сама на себя. Как минимум, к ней придется пристроить устройства ввода/вывода: клавиатуру, экран, принтер, дисковые накопители, оптические приводы или хотя бы флоппи-дисководы. Тогда получится полноценный компьютер, который получает данные и команды из внешнего мира и выдает на-гора результаты своей деятельности. При этом можно указанные компоненты намертво встроить в систему – как и поступал Стив Возняк со своим паяльником, конструируя первые массовые ПК Apple I в конце 70-х годов прошлого века. А можно придумать некий интерфейс, рассказать всем, как он устроен, и тогда любой сможет подключать к нему любые устройства, лишь бы они были снабжены нужными разъемами-соединителями и соблюдали договоренности по поводу электрических характеристик сигналов и характера обмена данными – протоколы. По этому пути пошли создатели другого первенца компьютеростроения – IBM PC, взяв за основу так называемую открытую архитектуру.

Некоторые из внешних устройств компьютера: дисплей и видеоадаптер, аудиосистему, жесткие диски – мы уже рассмотрели в предыдущих главах. Здесь мы остановимся на компьютерных портах для подключения внешних устройств.

 

3.1. Какие бывают порты

 

К компьютерным портам (аппаратным интерфейсам) причисляют как специализированные интерфейсы (например, сетевые, а также служащие для подключения таких устройств, как мониторы, аудиосистемы или беспроводные мыши и клавиатуры), так и интерфейсы общего назначения, к которым потенциально можно подключить любое устройство. К проводным интерфейсам общего назначения относятся порты COM, LPT, PS/2, GAME-порт, FireWare и USB.

Сетевые интерфейсы, в том числе беспроводные (Wi-Fi), мы рассмотрим в последующих главах. Из беспроводных интерфейсов общего назначения наиболее универсальным является Bluetooth – как и Wi-Fi, он чаще используется для связи между компьютерами (или между компьютерами и мобильными устройствами), и мы его рассмотрим в этой главе отдельно. Известен еще интерфейс SCSI («сказёвый», как его любят обзывать компьютероманы), но на нем я не буду останавливаться – можно считать, что он похоронен окончательно и бесповоротно и остался лишь как основа некоторых современных интерфейсов. Разъем шины PCI-Express тоже может быть использован в качестве внешнего порта, но пока еще таких устройств немного. Всякую экзотику, вроде специального разъема для подключения MIDI-устройств, мы тоже рассматривать не будем, как и специфичные для ноутбуков интерфейсы PCMCIA или ExpressCard, – ограничимся стандартными портами, причем рассмотрим их приблизительно в той последовательности, в которой они появлялись на свет.

Чтобы наглядно представить размещение и внешний вид упомянутых далее интерфейсов на задней панели современного настольного компьютера, можно обратиться к рис. 1.2 в главе 1 «Начинка компьютера. Особенности мобильных компьютеров».

 

COM

СОМ-порт (от слова «коммуникационный»), или serial («последовательный») порт – отчасти ошибочно еще называют портом RS-232. Правильно сказать так: COM-порт передает данные, основываясь на стандарте последовательного интерфейса RS-232, который, кроме собственно протокола передачи и электрических параметров, стандартизирует разъем DB-25. Позднее, специально для ПК, выпустили стандарт RS-574, установивший всем знакомый разъем DB-9, теперь ставший фактическим стандартом для всей отрасли. Есть и еще один термин, который имеет непосредственное отношение к этой теме: UART (Universal Asynchronous Receiver-Transmitter, универсальный асинхронный приемопередатчик). UART есть составная часть СОМ-порта, его основа, то устройство, которое собственно передает и принимает данные и к которому адресуются пользовательские программы. Кроме UART, в СОМ-порт входит преобразователь электрических уровней UART/RS-232. Вообще-то на микросхемах UART можно построить линии передачи по различным протоколам: RS-422 (скоростному), RS-485 (повышенной надежности), даже USB. Рассматриваемый RS-232 – самый простой из них.

Стандарт RS-232 – один из самых древних протоколов передачи данных между устройствами, он был утвержден еще в 1969 году, и к компьютерам (тем более ПК) тогда еще не имел никакого отношения. Это очень простой в реализации, дешевый, неприхотливый и достаточно надежный способ соединения двух устройств. Существует несколько стандартов RS-232, различающихся добавленной буквой: RS-232C, RS-232D, RS-232E и пр. Вдаваться в различия между ними нет никакого смысла – они являются лишь последовательным усовершенствованием и детализацией технических особенностей одного и того же устройства. Заметим лишь для справки, что все современные порты поддерживают спецификации RS-232С или RS-232E.

Давайте немного подробнее остановимся на том, как работает RS-232 – это хорошо иллюстрируют не совсем очевидные принципы передачи целого набора битов всего по одному проводу. Идея заключается в посылке последовательных импульсов, каждый из которых может означать 0 или 1. Если в определенные (заранее известные) моменты времени считывать состояние линии, то можно восстановить то, что было послано. Однако эта очевидная мысль наталкивается на определенные трудности.

Для приемника и передатчика, связанных между собой тремя проводами («земля» и два сигнальных провода: «туда» и «обратно»), приходится задавать скорость передачи и приема, которая должна быть одинакова для устройств на обеих концах линии. Эти скорости стандартизированы и выбираются из ряда от 110 до 115200 битов в секунду. Проблема состоит в том, что приемник и передатчик – это физически совершенно разные системы, и скорости эти для них не могут быть строго одинаковыми (из-за разброса параметров тактовых генераторов), и даже если их каким-то образом синхронизировать в начале, то они в любом случае быстро «разъедутся». Поэтому в RS-232 придумали передачу каждого байта сопровождать начальным (стартовым) битом, который служит для синхронизации. После него идут от пяти до восьми информационных битов (девять – если используется проверка на четность), а затем стоповые биты, которых может быть один, два и более, – предполагается, что за время прохождения всей этой посылки приемник и передатчик по частоте «разойтись» не успеют.

Рисунок 3.1 иллюстрирует работу приемопередатчика RS-232. Стартовый бит передается положительным уровнем напряжения (в данном случае это считается логическим нулем), а стоповый – отрицательным уровнем (логической единицей). Обнаружив изменение уровней с отрицательного на положительный, приемник считает это стартовым битом и с заданными, согласно оговоренной заранее скорости передачи, промежутками времени отсчитывает от него все остальные.

Рис. 3.1. Передача байта по стандарту RS-232

Одно из самых удобных с технической точки зрения качеств RS-232 – то, что стандарт предусматривает весьма широкий разброс напряжений сигнала – официально в пределах от ±5 до ±15 В (для RS-232C), а на самом деле он может быть еще расширен, потому что приемник принимает сигналы ±3 до ±25 В. Длина линии связи не должна превышать 15 м (RS-232C), но на практике это могут быть много большие величины. Если скорость передачи не выбирать слишком высокой, то такая линия может надежно работать на десятки и сотни метров (автору этих строк удавалось без дополнительных ухищрений наладить обмен с компьютером на скорости 4800 бод по кабелю, правда, довольно толстому, длиной около полукилометра). Никаких специальных витых пар не предполагается – линия может состоять из обычных проводов.

Из всего этого вытекает, что RS-232 – идеальный способ для передачи данных с небольшими скоростями по минимальному количеству проводов. Когда-то его всерьез намеревались развивать, отчего и стандартизировали разъем с 25 контактами (DB25) – «на вырост». В этом разъеме имеются дополнительные линии, смысл которых в том, что они могут применяться для организации различных синхронных протоколов обмена (протоколов с handshakes, «рукопожатием»). Все старые ПК имели по два COM-порта: и с 9-ю, и с 25-ю контактами. Быстро выяснилось, что 25 контактов – чистое излишество, вполне достаточно и 9-ти, и DB25 как-то незаметно исчез из обихода. Остался только DB9, да и в нем имеющиеся дополнительные линии мало какое устройство использует. Так как RS-232 – медленный способ передачи, то никаких особых требований к соединителям он не предъявляет, и нередко можно встретить устройства и с нестандартным разъемом – например, в некоторых старых цифровых фотокамерах под последовательный порт были приспособлены стереоаудиоразъемы. С 1991 года развитие RS-232 затормозилось – ему на смену пришли намного более сложные, зато удобные для пользователя и скоростные USB и FireWare.

Отметим еще, что обычный телефонный модем с точки зрения системы – тоже СОМ-порт, только поверх простейшего физического протокола RS-232 для него введены некоторые специализированные команды управления, а в остальном он ничем от СОМ-порта не отличается (даже если втыкается в USB). «Комом» является и инфракрасный (IR) порт, беспроводной интерфейс Bluetooth тоже образует виртуальные СОМ-порты, через которые ведется обмен.

С точки зрения современных технологий у COM-порта только два недостатка, зато очень серьезных. Во-первых, он медленный – со скоростью 115 кбит/с не только какое-нибудь видео, даже цифровой звук не всегда передашь с надлежащим качеством. Правда, современные порты поддерживают скорости и повыше (например, 256 кбит/с), но это не выход из положения. Во-вторых, он подразумевает только соединение «точка-точка» – если у вас один СОМ-порт, то вы к нему можете подключить только одно устройство. Тем не менее, хоронить протокол RS-232 не следует – это по-прежнему самый дешевый и простой способ связи внешних устройств с компьютером, отчего он и по сей день используется во многих специальных аксессуарах – вроде навигаторов, модемов или медицинских приборов.

Кабели для подключения RS-232 делятся на удлинительные (вилка-гнездо, рис. 3.2) и соединительные (гнездо-гнездо, рис. 3.3), последние часто называют нуль-модемными. В соединительных кабелях, обеспечивающих обмен между двумя устройствами, приемные-передающие линии (2-й и 3-й контакты 9-контактного разъема) соединены перекрестно. В правильном нуль-модемном кабеле контакт 4 (DTR, Data Terminal Ready, готовность компьютера) на противоположной стороне также соединяется с 1 и 6 контактами (DCD и DSR – готовность модема). В удлинительных кабелях все эти контакты соединены один к одному.

Рис. 3.2. Удлинительный кабель RS-232

Рис. 3.3. Соединительный (нуль-модемный) кабель RS-232

Если вы столкнулись с COM-интерфейсом на каком-то приборе, а в компьютере он отсутствует, – не отчаивайтесь. Есть несколько способов его организовать. Самые распространенные – приобрести переходник USB-COM в виде внешнего кабеля или вставную PCI-плату с набором портов. Последний способ предпочтительнее первого – кабели USB-COM бывают довольно капризными, и некоторые программы для работы через COM-порт с этими кабелями работают с ошибками или отказываются работать вовсе. «Железный» COM-порт, установленный, как постоянное оборудование компьютера, значительно надежнее и, кстати, даже предпочтительнее стационарного порта, установленного на материнской плате, – в случае чего выходит из строя дополнительная плата, а материнская остается в неприкосновенности.

Для ноутбуков такое решение, конечно, не подходит – в них можно пользоваться только переходниками, например, USB-COM. Более надежными будут переходники PCMCIA-COM, хотя они могут быть существенно дороже USB-кабелей. Есть и переходники ExpressCard-COM для тех ноутбуков, в которых нет PCMCIA.

Как определить номер виртуального COM-порта?

И вставные платы, и кабели, и различные переходники для ноутбуков, имеют, как правило, одну неприятную особенность – они не позволяют задать определенный номер COM-порта, он устанавливается произвольным образом после установки драйвера. Причем для переходников USB-COM часто номер порта еще и меняется в зависимости от того, в какой именно порт USB в этот раз воткнули кабель. Такую же особенность имеют и многие модемы (в том числе GSM-модемы для выхода в Интернет по сотовой связи или сотовые телефоны, используемые в качестве модема). А для соединения через COM в программах связи обычно приходится указывать его номер. Как быть?

Определить, какой именно номер присвоен в данном случае виртуальному COM-порту, можно через меню Панель управления | Система | Оборудование | Диспетчер устройств | Порты COM и LPT (в новых версиях Windows Диспетчер устройств может быть доступен прямо из панели управления). В указанном разделе может быть много разных COM-портов (особенно, если у вас в системе имеется Bluetooth), но нужный легко определяется наличием в названии «USB-to-serial» или другой подобной записи. Для модемов (а также сотовых телефонов, подключенных в качестве модема) соответствующий номер COM-порта можно узнать, если найти их в разделе Модемы Диспетчера устройств и обратиться к вкладке Модем в окне Свойства выбранного модема.

 

LPT (IEEE 1284)

Мало кто из знатоков вам прямо сразу ответит, как расшифровывается аббревиатура LPT. На самом деле это сокращение от Line Print Terminal (терминал линии печати). Есть и другие версии: Line PrinTer – т. е. «построчный принтер», а некоторые утверждают, что L означает Letter – «буква», т. е. получается «буквенный принтер» (как будто во времена появления этого порта существовали какие-нибудь принтеры, отличные от «буквенных»).

Порт LPT был спроектирован специально для компьютеров и появился в их составе позже, чем COM. В самом первом IBM PC (1981) вообще никаких привычных интерфейсов не было, а в более усовершенствованной модели IBM PC XT (1984) LPT присутствовал лишь в некоторых конфигурациях. Многие первые модели принтеров подключались через СОМ, но это оказалось медленно и неудобно. LPT сразу проектировали так, чтобы обеспечить передачу данных с большими скоростями. Как следует из названия, он предназначался для конкретной задачи – подсоединения принтера, но область его использования оказалась заметно шире.

С LPT тесно связан интерфейс Centronics, название которого относится как к набору сигналов и протоколу взаимодействия, так и к 36-контактному разъему, устанавливаемому на принтерах (рис. 3.4). Со стороны компьютера Centronics никогда не используется, вместо него устанавливается разъем-гнездо DB-25-female («мама» – в отличие от COM-порта, где используется штыревая часть, вилка DB-25-male, «папа»). Все эти разъемы, как и сигналы, были окончательно стандартизированы в международном стандарте IEEE 1284 (1994 г.).

Рис. 3.4. Разъем Centronics на кабеле для подсоединения принтера

В отличие от порта COM, не утратившего своего значения до настоящего времени и не потеряющего его, очевидно, еще долго, LPT уже почти утратил свои позиции – практически все ориентированные на него устройства, включая принтеры, ныне делаются под USB. LPT ничем не проще и не дешевле более скоростного USB, а кабели под него куда более громоздкие. А наличие в современных микроконтроллерах встроенного UART позволило без излишних усилий перевести на последовательный порт и все нестандартные устройства, не требующие высокой скорости передачи, – вроде научного и медицинского оборудования.

Но если вам все-таки попадется LPT-устройство, то выход может быть таким же, как в случае COM, – либо переходник к одному из существующих интерфейсов, либо вставная PCI-плата. Причем последний вариант, как и для последовательного порта, предпочтительнее остальных – LPT еще более капризен, чем COM, при его виртуализации через другие интерфейсы, и кабель USB-LPT для подключения принтеров может не заработать при подключении, например, сканера.

 

PS/2

Этот интерфейс отличается от остальных тем, что имеет сугубо специфическое назначение – для подключения мышей и клавиатур. Мне неизвестны какие-либо другие устройства, которые его используют. Причем и для мыши, и для клавиатуры используются одинаковые 6-контактные разъемы типа MiniDIN, помеченные (после принятия стандарта PC99) цветами: для мыши – бирюзовым, для клавиатуры – сиреневым. С физической точки зрения PS/2 является последовательным портом с отдельной линией синхронизации и еще отличается тем, что имеет вывод +5 В для питания подключенного устройства.

Разъемы PS/2 – почти единственное, что осталось от некогда нашумевшей архитектуры IBM PS/2. Первоначально ПК не поддерживали никаких мышей – зачем они в текстовом интерфейсе? Для подключения приходилось использовать специальные адаптеры, устанавливаемые в свободные слоты на плате. Затем распространились последовательные мыши, которые подключались в COM-порт. Отметим не всем очевидную нестандартность этого решения – как мы уже упоминали, разъем COM-порта не имеет специального вывода питания. Поэтому все последовательные мыши питались от одной из сигнальных (дополнительных) линий, которая устанавливалась драйвером в нужное состояние. Мыши разных производителей использовали разные линии для питания и разную полярность напряжения, поэтому драйверы могли быть несовместимыми.

Удивительно, но такое «незаконное» подключение продержалось в качестве стандарта де-факто полтора десятилетия – разрабатывая стандарт АТХ в 1997 году, компания Intel ввела разъемы из давно забытой к тому времени IBM-овской линейки PS/2 в качестве интерфейса для подключения клавиатуры и мыши. Это было наиболее удобным решением, и даже многие современные платы поддерживают такие порты. Преимуществом их стало то, что мышь поддерживается на уровне BIOS (клавиатура, как основное устройство, поддерживалась изначально). Поэтому подключаемые к PS/2 (и, кстати, даже к USB) мыши в современных ПК вполне могут работать и в DOS, без всяких драйверов.

Начиная со стандарта РС98, впрочем, рекомендовалось подключать мышь к порту USB. В РС99 это рекомендовалось уже настоятельно, а COM-порты посоветовали убрать вовсе. В РС2002 вообще была дана однозначная команда – для периферии только USB. Но эта инициатива Intel/Microsoft тогда в значительной мере провалилась и в какой-то мере начинает осуществляться только в настоящее время.

Что же касается PS/2, то мыши и клавиатуры никогда из ПК не вынимаются, и с точки зрения пользователя не всегда ясно, зачем занимать универсальный порт USB, для которого можно придумать и более полезное применение. Мне, например, четырех имеющихся разъемов USB на задней панели не хватает и без того – приходится применять разветвитель, а если бы я еще туда мыши с клавиатурой подключал, мне бы этих разъемов не хватило и на более нужные надобности.

Вводя одинаковые разъемы для мыши и клавиатуры, в Intel предполагали, что можно будет их подключать в любой из разъемов на выбор, с автоматическим определением, что именно подключено. В реальности так работают только компьютеры, где разъем PS/2 специально окрашен в серый цвет (обычно такой единственный разъем встречается на ноутбуках, и к нему можно подключать мышь или клавиатуру, на выбор). В случае наличия двух разъемов, окрашенных в разные цвета, корректную работу обеспечит только правильное подключение, для чего ответные части разъемов на кабеле мыши и клавиатуры (и иногда корпуса переходников с USB-интерфейса, хотя они и взаимозаменяемы) также окрашены в соответствующий цвет.

С точки зрения пользователя разъемы PS/2 имеют только один недостаток – их очень легко выдернуть случайно, но на десктопе это не имеет такого большого значения. Что касается переходников, то если вам попался USB-экземпляр, а на компьютере есть порты PS/2, то проблем никаких – в эту сторону PS/2 с USB совместимы полностью, и переходник стоит копейки, потому что не содержит никаких активных элементов. Часто производители просто вкладывают переходник в коробку, а вы уж сами решаете, куда подключать приобретенное. А вот в обратную сторону – для подключения PS/2-мыши к USB – проблемы могут быть, и в любом случае адаптер стоит дорого, а специальные драйверы (для конфигурирования дополнительных кнопок, например) могут и не заработать, так что проще оказывается купить новую мышь.

 

GAME-порт

Назначение игрового контроллера и его интерфейса понятно без пояснений. Он (в стандартной конфигурации) практически не изменился со времен IBM PC AT, разве что стал встраиваться в материнские платы, а не располагаться на отдельной карте (обычно его размещали на платах совместно со «звуковухой» или с контроллером жестких дисков). Он использует такой же, как LPT, тип разъема DB («мама»), только с 15 контактами, так что перепутать невозможно. Стандартный GAME-порт поддерживает два джойстика с двумя кнопками каждый. Встречаются и сдвоенные порты.

GAME-порт имеет выводы питания +5 В (как и PS/2, и USB), причем даже несколько, т. е. к нему можно подключить устройства, собственного питания не имеющие. Но еще интереснее, что у него выводы для подключения координатных преобразователей джойстика (в количестве 4-х штук) представляют собой самые настоящие аналого-цифровые преобразователи, довольно, правда, примитивные. «Официальные» устройства, использующие это свойство игрового порта (кроме, конечно, самих игровых аксессуаров), мне не попадались, но для радиолюбителей здесь есть, где развернуться. Впрочем, звуковая карта в этом отношении много интереснее.

Последние годы GAME-порт практически потерял свое значение, и все современные игровые «прибамбасы», вроде джойстиков или рулей, подключаются к USB.

 

FireWare (IEEE 1394)

«Феа-веа» (примерно так меня учили это произносить, хотя я все равно предпочитаю «фаря-варя»), известный также, как стандарт IEEE1394, – замечательная придумка компании Apple, которую сама же компания, находившаяся тогда (в 1995 году) в глубоком «дауне», чуть не погубила. Во-первых, абсолютно неправильным рыночным позиционированием – расчет был на элитарных пользователей, подключающих к своим аристократическим «Макинтошам» всяческую передовую видеотехнику или суперскоростные (по тем временам) жесткие диски. Во-вторых, исходя из этого, компания поначалу запросила ни много ни мало, как по доллару лицензионных отчислений за каждый установленный в устройствах сторонних производителей такой порт. Индустрия пожала плечами и отвернулась – уже через год появился тогда еще очень несовершенный, но зато бесплатный USB 1.0.

Тем не менее, по крайней мере в «Макинтошах», этот интерфейс прижился. Потом появился и в РС (уже под названием IEEE 1394 – FireWare есть зарегистрированная марка Apple), а компания Sony разработала совместимый интерфейс под названием iLink, который отличается возможностью соединения не только бытовых устройств с компьютером, но и напрямую между собой. Другие компании продвигали этот же интерфейс под своими торговыми марками: mLAN (Yamaha), Lynx (Texas Instruments), SB1394 (Creative Technology), пока в мае 2002 года компания Apple и организация 1394 Trade Association не приняли соглашение, позволяющее производителям и дилерам, входящим в ассоциацию, получать бесплатные лицензии торговой марки FireWire с условием предварительного прохождения ряда специальных тестов.

До некоторого времени IEEE1394 был вне конкуренции для перекачки в ПК цифрового видео – ничто другое из стандартных интерфейсов просто не справлялось (приходилось использовать дорогущие специальные платы видеозахвата), и с тех пор его традиционно используют для этой цели. Встраивается этот интерфейс и во многие цифровые фотокамеры, существуют подключаемые через него внешние диски или оптические приводы. Очень часто FireWare применяют для подключения всякой спецтехники, вроде барабанных сканеров. Но если вы такую технику не используете, и у вас в ПК нет встроенного порта FireWare, то в остальном он прекрасно заменим на USB 2.0.

И все же жаль, что так вышло – с технической точки зрения последовательный интерфейс FireWare стремится к почти недостижимой степени совершенства. Хотя теоретически максимально возможная скорость передачи для основной модификации стандарта (1394а) – 400 Мбит в секунду – стандартом USB 2.0 даже перекрыта, но зато у FireWare есть ряд поистине бесценных свойств. Во-первых, у него вывод питания достаточно мощный (1,5 А, от 8 до 40 В) для того, чтобы вообще избавить очень многие внешние устройства, вроде сканеров, от необходимости иметь собственное питание. Во-вторых, он гораздо менее капризен к подключению/отключению в «горячем» режиме. Теоретически, например, жесткий диск с таким интерфейсом можно выдернуть из порта прямо во время передачи данных, и с ним ничего не случится. Есть и другие особенности, о которых стоит поговорить подробней.

Для FireWare существует две разновидности соединительных кабелей: с 4-мя и с 6-ю жилами и, соответственно, два типа розеток. Поскольку на плате контроллера могут быть розетки как на шесть проводов, так и на четыре, то и типов переходных шнуров существует 3 вида (6–6/6-4/4-4). На один канал теоретически можно подключать до 63 устройств, причем к единому шлейфу, без каких-то хабов-концентраторов, как в USB. Мало того, если каждое такое устройство является узлом (т. е. в терминах USB – концентратором), то к нему можно подключить еще до 16 устройств. Если этого недостаточно, то, в соответствии со стандартом IEEE 1394.1, можно дополнительно подключить до 1023 шинных перемычек, которые могут соединять более 64 000 узлов! Такое множество техники «чайник» не в состоянии подключить без ошибок, и на этот случай при неправильном подключении устройств, которое приводит к образованию логической петли, интерфейс выполняет автоматическую коррекцию. Кроме того, в отличие от USB, шина 1394 может поддерживать устройства, работающие на разных скоростях передачи данных. Все это рассчитано на проектирование домашних мультимедиасетей, хотя на практике такие сети встречаются довольно редко.

Добавим, что стандарт 1394b поддерживает скорость 800 Мбит/с, а модификации его на основе оптоволокна поддерживают скорость 1600 Мбит/с и даже 3200 Мбит/с на расстоянии до 50-100 метров. Порты стандарта 1394c имеют интересную особенность – они используют витую пару и могут работать параллельно с Gigabit Ethernet, т. е. появляется возможность иметь две друг от друга не зависящие сети на одном кабеле.

С другой стороны, FireWare хотя и может использоваться для подключения тех же мышей и клавиатур, но это ему как-то… не к лицу, и таких простых устройств с этим интерфейсом не существует. USB куда демократичней и более универсальный.

 

USB

Первая версия последовательного интерфейса USB появилась 15 января 1996 года. Инициаторами проекта был альянс семи крупных компаний производителей: Intel, Compaq, DEC, IBM, Microsoft, NEC и Northern Telecom. Основная цель этой деятельности – создать универсальный интерфейс для подключения внешних устройств, который «от рождения» поддерживал бы режим Plug&Play и «горячее» соединение/отключение. USB сначала не стремился к каким-то рекордным показателям, а проектировался для несколько других задач, чем FireWare, – как замена разнобоя внешних интерфейсов COM, LPT, PS/2 и других.

В отличие от ISA-шного LPT, USB базируется на много более скоростной шине PCI, отсюда все его отличия от «старичков». Основная идея USB – «горячее» подключение с автоматическим распознаванием устройства. На десктопах с постоянным подключением USB-мышь или клавиатуру, как я говорил, использовать не всегда удобно, но само существование таких устройств очень полезно, потому что позволяет подключать их куда угодно – даже к монитору, оснащенному USB-концентратором. В результате, например, стало необязательно снабжать всеми возможными интерфейсами ноутбуки и прочие мобильные компьютеры.

Теоретически одного USB достаточно на все про все, ведь к одной линии можно подключать до 127 устройств (при условии, что хватит питания, которое здесь ограничено 5 вольтами при 0,5 А). Размножение USB-устройств производится с помощью разветвителей-хабов (их часто называют концентраторами), которые могут иметь свое питание. Некоторые устройства, например, внешние жесткие диски, требуют подключения к двум портам сразу, причем второй порт используется исключительно как источник дополнительного питания (что не очень, конечно, красивое решение). Собственно, в любом ПК есть обычно только один USB (корневой концентратор), а 4 или 6 портов на задней панели, плюс 2–4 порта на передней образуются из него тем же способом, что и в отдельных концентраторах. Отсюда иногда наблюдающаяся неравноценность портов – например, один из портов на передней панели у меня категорически отказывается воспринимать флэш-накопители, хотя в остальном работает нормально. Самое ценное достоинство шины USB – она использует только одно прерывание, даже если подключить все возможные 127 устройств, а прерывания в PC – это всегда дефицитный ресурс.

В USB применяется кодирование данных NRZI (Non Return to Zero Invent). В этом методе кодирования изменение уровня напряжения соответствует 0, а его отсутствие – 1. Последовательность нулей означает переход с одного уровня на другой каждый квант времени; последовательность единиц означает длительный промежуток времени, при котором изменения данных не происходит. При таком способе отменяется необходимость в дополнительных синхроимпульсах (по отдельной «проволоке», как в PS/2, или в виде стартовых-стоповых битов, как в СОМ), которые занимали бы время и снижали пропускную способность шины.

Теоретически повсеместно устанавливаемые сейчас порты по стандарту USB 2.0 поддерживают скорость до 480 Мбит в секунду (60 Мбайт/с), хотя на практике с такими скоростями справляются лишь немногие устройства. Причем стандарт USB 2.0 предусматривает два режима работы: HR (высокоскоростной) и FS (низкоскоростной, по сути – USB 1.1 со скоростью до 12 Мбит/с). В самом деле, зачем мышам 480 Мбит/с?

Максимальная длина кабеля между двумя работающими на предельной скорости устройствами (или устройством и концентратором) – 5 метров, но может быть и до 10, в зависимости от качества его изготовления. Чтобы увеличить дальность, приходится ставить промежуточные хабы или просто усилители сигнала. Последние бывают двух типов: пассивные (с питанием от предыдущего концентратора) и активные (с собственным источником питания, иногда более мощным, чем предусматриваемый стандартом 0,5-амперный).

Стандартом предусматривается несколько типов разъемов USB (рис. 3.5): А, В, mini-А и mini-B, miniAB (универсальный), в 2007 году появились и Micro-USB A, B и AB. Разъем типа А (плоский) устанавливается со стороны ведущего устройства, а типа В (квадратный) – ведомого, соответственно, большинство соединительных кабелей и имеют эту конфигурацию: А-В.

Рис. 3.5. Разъемы USB на кабеле, слева направо: microUSB AB, miniUSB AB, тип B, тип A (гнездо удлинителя USB), тип A (вилка)

С mini-USB все не так однозначно. Разъемы Mini-A употребляются редко (все миниатюрные устройства, как правило, являются ведомыми), потому для них даже не предусмотрено отдельной конфигурации, все mini-гнезда одинаковы (с оговорками, о которых далее) и различаются лишь цветом пластмассы (mini-A – белый, mini-B – черный, mini A/B – серый). Но так утверждает стандарт, на практике же по части mini-USB-разъемов существует неприятный разброд среди производителей. Теоретически стандартом предусматривается 5-контактный разъем mini-USB (5-й контакт, точнее, 4-й по порядку, никуда не подключается). Но я встречал как минимум три разновидности mini-USB – 5-контактный, и более узкие 4-контактные двух разновидностей. Сейчас эта пестрота, впрочем, сходит на нет – все новые устройства снабжаются стандартными разъемами, они одинаковы и для мобильников, и для цифровых камер, и для КПК, потому взаимозаменяемы по соединительным кабелям. Все USB-разъемы спроектированы так, чтобы шины питания входили в контакт первыми – тем самым обеспечивается беспроблемное «горячее» подключение.

В 2008 году появилась окончательная спецификация USB 3.0, предусматривающая скорости передачи до 4,8 Гбит/с и повышение максимального тока по линии питания до 0,9 А, но в практику она пока внедряется медленно. Разъемы USB 3.0 типа A совместимы с USB 2.0, но легко отличаются от них наличием дополнительного ряда контактов в глубине разъема. А вот разъемы типа B и micro-USB могут быть несовместимыми как минимум в одну сторону – например, кабель micro-USB 3.0 вставить в USB 2.0-устройство не получится (рис. 3.6).

Рис. 3.6. Кабель с разъемом micro-USB 3.0

Секреты мобильного USB

Во многих дешевых моделях мобильных телефонов и по сей день нет настоящего USB-порта – вместо него используется обычный последовательный порт, замаскированный под разъем mini-USB (или иной, часто собственной фирменной конфигурации). Через такой порт вы иногда можете даже подзаряжать телефон от компьютера вместо зарядного блока, но Windows не сможет обнаружить подключенное устройство – в последовательном порту нет для этого средств. Для общения с компьютером такого мобильника придется приобретать специальный переходной кабель, ценой обычно около 20 долларов, аналогичный тем, что используются в переходниках USB-COM, и устанавливать драйвер под используемую в кабеле микросхему сопряжения. Потому я советую обращать внимание на эту особенность при покупке мобильного телефона, который вы планируете использовать, например, в качестве модема – требование специального кабеля с драйвером приводит к значительным неудобствам в эксплуатации, и часто бывает проще в таких случаях использовать беспроводные средства связи вроде Bluetooth.

 

3.2. Голубой зуб

 

Первоначально поклонники датского конунга Х века Харальда I Синезубого, работавшие в фирме Ericsson, предполагали использовать свою разработку для построения беспроводных сетей. Только в отличие от Wi-Fi, прямо предназначенного для замены проводного Ethernet, Bluetooth (IEEE 802.15.1) не замахивался так высоко – сети, для которых он был предназначен, получили название «персональных» (WPAN, Wireless Personal Area Network). Предполагалось, что это будут сети масштаба комнаты или офиса – радиус действия Bluetooth не превышал 10 метров, и одновременно в сеть могли быть объединены до 8 устройств (одно главное, ведущее – Master, и еще 7 ведомых – Slave).

Конечно, сети на основе Bluetooth тоже выстраивают – особенно с вводом нового стандарта IEEE 802.15.3, базирующегося на той же технологии, что и Bluetooth, но имеющего радиус действия до 100 м (уже масштаба здания, как и Wi-Fi) и позволяющего подключать значительно большее число общающихся между собой устройств. Но сложилось так, что больше распространен оригинальный Bluetooth (IEEE 802.15.1), который стал использоваться в значительной степени, как замена интерфейсов парных соединений «точка-точка» – проводных COM и USB, а также очень неудобного на практике инфракрасного порта IrDA, хоть и беспроводного, но требовавшего прямой видимости устройств, да еще и в определенной ориентации друг к другу.

На практике Wi-Fi и Bluetooth конкурируют между собой слабее, чем это можно было предположить, и вытеснения одного другим пока что не предполагается: каждый занимает свою нишу. Приемопередатчики Bluetooth имеют маленькую мощность (порядка 1 мВт), сейчас стали совсем дешевыми и встраиваются не то что в сотовые телефоны, но даже в головные беспроводные гарнитуры, есть и Bluetooth-клавиатуры или мыши (хотя большинство таких устройств использует проприетарный радиоинтерфейс). В таких задачах, как переслать с мобильника на мобильник телефонный номер из записной книжки – здесь Bluetooth пока вне конкуренции, в силу крайней простоты его использования.

Семьдесят девять синих зубов

«Синий зуб» работает в том же самом частотном диапазоне 2400–2483,5 МГц, что и Wi-Fi, предназначенном для безлицензионного использования в промышленности, науке и медицине (Industry, Science and Medicine, ISM). Но в Bluetooth используется совершенно иной механизм передачи на физическом уровне, чем в Wi-Fi, – вместо хитрых способов фазовой модуляции применяется более простая частотная манипуляция, когда логический ноль передается частотой на 160 кГц ниже базовой, а логическая единица – на 160 кГц выше. Ширина канала получается 320 кГц, а всего в диапазоне в большинстве стран, в том числе и России, выделяют 79 каналов (а вот во Франции каналов всего 23). При этом для снижения помех частота передачи все время меняется (каждые 625 мкс или 1600 раз в секунду) между этими каналами по псевдослучайному закону – это т. н. метод FHSS, Frequency Hop Spread Spectrum, расширение спектра при скачкообразном изменении частоты (тот же самый метод используется и в системах спутниковой навигации).

Когда частота сигнала все время меняется случайным образом, мы не только получаем хороший шанс избежать помехи (если помеха помешала нам в одном из каналов, то передача тут же будет повторена в другом), но и сами минимально влияем на другие устройства в том же диапазоне. Поэтому, например, в помещении могут работать одновременно устройства Bluetooth и Wi-Fi, не мешая друг другу. Остается вопрос о том, как синхронизировать передающее устройство и приемное, – если закон изменения частоты случайный, то попасть «друг в друга» они смогут также только случайно. Поэтому сигнал оказывается не истинно случайным, а псевдослучайным – генератор таких сигналов выдаст вам случайную последовательность, которая, однако, всегда будет одна и та же, если начать отсчет сначала. Во всех устройствах Bluetooth стоят идентичные генераторы со счетчиками, отсчитывающими, сколько раз уже произошло изменение частоты с момента включения. Ведомому устройству достаточно получить перед началом связи значение счетчика ведущего и начать отсчет с того же значения. Тогда все дальнейшие скачки частоты будут синхронизированы.

Простота организации связи по каналу Bluetooth, впрочем, оборачивается не слишком высоким уровнем безопасности. В силу небольшого радиуса действия, разработчики IEEE 802.15.1 не стали заморачивать себе голову проблемами капитальной защиты канала – о том, чтобы снабжать Bluetooth-каналами мобильные телефоны, в 1998 году, когда вышел первый вариант стандарта, и речи еще не было. Шифрование используется, но ключ передается открыто, и его ничего не стоит перехватить. Действительность заставила производителей горько об этом пожалеть: самый, вероятно, громкий скандал, связанный со взломом Bluetooth, произошел весной 2005 года, когда в Интернете был опубликована телефонная книга Пэрис Хилтон – светской львицы, знакомой чуть ли не со всеми знаменитостями США. А более мелкие неприятности случаются постоянно.

Конечно, по-настоящему секретную информацию в мобильных телефонах хранят не так уж и часто (мобильные кошельки в расчет не берем – они защищены отдельно), но малоприятно, когда ваши эс-эм-эски и координаты ваших друзей расходятся по рукам. Впрочем, для такого взлома (или, например, для того, чтобы послать с чужого мобильника SMS о готовящемся теракте) требуется все же определенная квалификация, а вот похулиганить можно сколько хотите. Развлечение подростков под названием BlueJacking (рассылка сообщений напрямую, минуя сотового оператора) даже берут на вооружение особо беспринципные рекламные менеджеры.

Все дело оказалось в том, что, во-первых, при скоплении людей в одном месте радиуса действия в 10 м для злоумышленников более чем достаточно, но и не только в этом – «синий зуб» оказался куда длиннее, чем закладывалось в стандарт. В 2005 году молодые ребята из небольшой фирмы Flexilis показали журналистам аппарат, похожий на снайперскую винтовку со «стволом» в виде направленной антенны. С его помощью они из окна 11 этажа отеля Aladdin на расстоянии около 800 метров выкачали содержимое телефонных книг и SMS из примерно 300 обнаруженных в пределах гостиничной автостоянки мобильников с Bluetooth-модулями.

Спасение от этой напасти единственное – держать модуль Bluetooth по умолчанию в режиме «невидимый», а еще лучше – просто выключенным, и включать его только тогда, когда действительно надо (заодно, кстати, экономится питание). Отметим, что в сетях IEEE 802.15.3 (тех, что с дальностью до 100 м) более качественное шифрование уже предусмотрено, хотя под натиском Wi-Fi они так и не получили распространения.

 

Подключение компьютеров через Bluetooth

Bluetooth стал широко распространяться как раз с появлением Vista, возможно, поэтому инструкций для Windows XP по процедуре подключения через Bluetooth значительно меньше, чем для новых версий. Мы не будем подробно копаться в различиях настроек беспроводной сети через Bluetooth в разных системах, а рассмотрим простейший случай соединения через Bluetooth двух компьютеров (например, ноутбуков) для передачи файлов по беспроводному каналу. А создание полноценной сети мы рассмотрим в последующих главах, ориентируясь на Wi-Fi, а не Bluetooth, что для сети более удобно и естественно.

В нашей модели будем считать, что компьютеры находятся под управлением разных версий Windows. Заметим, что аналогичным образом можно связаться с ноутбука и с любым другим устройством: с коммуникатором или мобильником, с беспроводной гарнитурой и прочими Bluetooth-устройствами. Такое подключение, как и вообще обращение с беспроводными сетями, сильно усложнено заботой о безопасности пользователя, которому придется продраться через несколько заслонов, препятствующих притаившимся за углом злобным хакерам выкачать ваши драгоценные файлы. Простое соединение, однако, имеет то преимущество перед созданием полноценной беспроводной сети на основе Bluetooth (WPAN), что по-настоящему файловые системы компьютеров извне не видны. Поэтому файл для передачи можно извлечь из любой папки и сохранить его в приемнике тоже в любой папке, необязательно открытой для всеобщего доступа.

Сначала нужно убедиться в том, что Bluetooth включен, и для каждого устройства разрешен к нему доступ. Включение контролируется через Диспетчер задач (горе обладателям ноутбуков, у которых дополнительно Bluetooth еще может отключаться аппаратно, клавишей на корпусе или сочетанием клавиш, хотя последнее время такое – редкость). В мобильных телефонах тоже существует как минимум две инстанции: собственно включение модуля Bluetooth и дополнительно разрешение доступа к телефону (например, если владелец пользуется головной Bluetooth-гарнитурой, то модуль будет включен, а вот доступ, скорее всего, запрещен). Если адаптер включен и все драйвера установлены, то в области уведомлений появится синий значок с белым рисунком, видимо, долженствующий напоминать синие зубы объевшегося черникой конунга Харальда I:

Разрешить доступ через Bluetooth в Windows 7 и Windows XP очень просто – надо щелкнуть правой кнопкой по этому значку и выбрать параметры соединения, где на вкладке Параметры обнаружится нужный пункт. В Vista почему-то все несколько сложнее – там для установки разрешений придется лезть в брандмауэр Windows. Но можно поступить и проще, установив разрешения по ходу дела – в момент соединения с компьютера, на котором установлена Vista, она сама запросит установку такого разрешения.

Для установления соединения сначала мы обращаемся через то же контекстное меню значка Bluetooth к пункту Добавление устройства в Windows 7 или к Добавить новое подключение в Windows Vista и Windows XP. Система обнаружит в зоне действия Bluetooth (в условиях квартиры – только в пределах той же комнаты) работающие устройства, и, выбрав одно из них, в общем случае вы получите окно, показанное на рис. 3.7.

Рис. 3.7. Запрос Windows Vista и Windows 7 на создание соединения по Bluetooth

Верхний пункт в окне по рис. 3.7 следует выбирать для подключения к другому компьютеру, средний – для подключения к устройствам типа гарнитуры, имеющим постоянный пароль (он обычно записан в руководстве), нижний – как там и написано, для устройств, не имеющих пароля (Bluetooth-мыши). Если все-таки устройство имеет пароль, будет предложено ввести его независимо от вашего выбора. Щелкнув по верхнему пункту, мы окажемся в окне, показанном на рис. 3.8, где нам предлагают этот самый пароль в виде случайной комбинации цифр.

Рис. 3.8. Пароль на создание соединения по Bluetooth в Windows 7

Одновременно на втором компьютере откроется окно запроса пароля, показанное на рис. 3.9. Если вы связываетесь, например, с мобильным телефоном, то на нем тоже появится предложение связаться с запрашивающим устройством и затем ввести тот же пароль. Вводим пароль, и соединение вроде бы установлено – в Vista об этом сигнализирует изменившийся цвет «зубов» на значке Bluetooth. Для двух компьютеров под управлением Windows на этом установка связи должна закончиться, а вот при связи с другими устройствами (мобильниками, гарнитурами, мышами) Windows может запросить еще и драйвер. Для простого перекачивания файлов с мобильника драйвер не нужен, хотя о его отсутствии вам все время будут напоминать.

Рис. 3.9. Запрос пароля на втором компьютере

При последующих подключениях вызывать «добавление устройства» не нужно – оно уже будет светиться в списке устройств Bluetooth, доступном из контекстного меню значка в области уведомлений (в Vista этот пункт называется Настройка Bluetooth) или из Панели управления. Попытка найти «новое устройство», если ранее подсоединявшееся существует в списке и находится в пределах досягаемости, скорее всего, окончится ничем, – никакого устройства Windows 7 не найдет (а вот Vista может создать и дубликат). Причем, по моим наблюдениям, в разных системах эти уже существующие устройства ведут себя по-разному: в Windows 7 и Windows XP соединение у меня всегда происходило автоматически (для мобильника такая возможность будет специально запрошена в нем самом при первом подключении). А вот заставить Vista это делать мне так и не удалось – соединение приходилось возобновлять вручную (пункт Подключить из контекстного меню значка устройства в списке). Причем Vista запросто может запросить пароль, который употреблялся прошлый раз (и если вы его не успели записать, то легче удалить устройство из списка и соединиться заново).

Теперь нам надо передать файл. Если на том компьютере, куда мы будем передавать, установлена Windows 7 или XP, то сначала на приемной стороне нажимаем в контекстном меню значка Bluetooth на Принять файл, и этот компьютер перейдет в режим ожидания (высветится соответствующее окно). Затем на передающем компьютере в том же меню выбираем Передать файл (Windows 7 или XP) или Беспроводная передача файлов (Vista). Появится окно (для Vista оно показано на рис. 3.10), в котором нужно выбрать приемник файлов – тот компьютер, с которым мы соединялись. Если там ни одного устройства нет, то ищите ошибку в соединениях – возможно, вы все-таки не разрешили доступ к компьютеру-приемнику. Тогда найдите наше соединение в списке доступных Bluetooth-устройств в контекстном меню значка и попытайтесь установить соединение заново.

Рис. 3.10. Передача файла через Bluetooth в Windows Vista

В этом окне отметьте нужный приемник (на рис. 3.10 он единственный – компьютер YURA-PC), затем через кнопку Добавить разыщите нужный файл (можно и целую папку) и, наконец, нажмите внизу на кнопку Отправить. На приемной стороне файл будет принят, и его можно сохранить в любом удобном месте, доступном через окно Компьютер. Отметим, что указанное место компьютер запоминает и в дальнейшем будет сразу сохранять переданные файлы в той же папке.

Для мобильных телефонов удобнее употреблять фирменное программное обеспечение – в нем есть все, что требуется. Но просто передать файл с мобильного телефона (например, снимок, сделанный с помощью встроенной камеры) можно и в таком режиме – после установки соединения войдите в галерею снимков на мобильнике, найдите в функциях пункт Отправить и выберите Bluetooth. Для Windows 7 и XP не забудьте для надежности предварительно обратиться к пункту меню Принять файл (компьютер может и самостоятельно выдать запрос на прием файла, но у меня происходило это не во всех случаях). Для Vista никаких специальных приемов файлов устраивать не надо – при обнаружении передачи в ней автоматически возникнет запрос на сохранение принимаемого файла.

Операции установления соединения и обмена файлами для компьютера с Windows XP и Windows 7 в целом похожи, причем в первой все устроено даже немного прозрачней (например, там физически включать и отключать модуль Bluetooth можно прямо из контекстного меню значка, не лазая в Диспетчер задач). Распространенная проблема «чайников» в XP – отсутствие значка Bluetooth в области уведомлений. Тогда надо обратиться в панель управления и убедиться, что там имеется компонент Устройства Bluetooth – в нем можно включить отображение значка. Если же такого компонента в панели управления вовсе не имеется, то это означает, что у вас недоустановлен драйвер Bluetooth для данного компьютера. А вот Vista мне показалась в плане своего отношения к Bluetooth самой проблемной системой из всех остальных, и я очень рад, что в «семерке» не стали тупо повторять «достижения», а вернулись к более простому и понятному варианту.

Еще больше усложнять наше повествование рассмотрением различных других вариантов мы не будем – принцип ясен, а детали постигаются на практике. Если вам покажется, что процедура все-таки слишком сложна, то не забудьте, что выстраивать настоящую сеть еще сложнее и на один раз это делать просто нецелесообразно. И как бы я не иронизировал по поводу пристрастия разработчиков Windows к чрезмерно усложненным баррикадам на пути хакеров, тем не менее по крайней мере от простых любителей покопаться в чужих записях они вполне защищают.

 

Глава 4

Сменные носители

 

В главе 3 «Компьютерные порты» мы говорили о том, что система, состоящая только из процессора и памяти, вполне самодостаточна, но не сможет общаться с внешним миром. Мы рассмотрели ряд способов обеспечения такого общения – клавиатуры и мониторы, компьютерные порты и сети. Сейчас мы обратимся к более традиционному способу связи с окружающей средой, существующему почти с рождения компьютеров, – к сменным носителям информации. И самые первые компьютеры приходилось, как минимум, программировать и получать с них данные, потому даже Чарльз Бэббидж, создавший в XIX веке «аналитическую машину» – механический прототип всех современных вычислительных машин, предусматривал в своей конструкции ввод и вывод данных с перфокарт (а также и то, что мы сегодня называем принтером).

Перфокарты, изобретенные в начале XIX века создателем автоматических ткацких станков Жаккаром, вместе с менее надежными перфолентами прижились в компьютерном деле надолго – лишь в 1970-х годах они были вытеснены магнитными носителями (жесткими дисками и дискетами), но, по слухам, еще в 2000-х годах в военной среде можно было встретить отдельные экземпляры компьютеров, работавших на перфокартах. За последующее время было изобретено и похоронено в анналах истории множество способов хранения информации на самых разных принципах, причем некоторые из них, возможно, похоронены не окончательно. Однако, если не считать магнитных носителей в виде жестких дисков, только два таких способа остались до настоящего времени: это оптические диски (в форме CD и DVD) и постоянная память на основе хранения электрических зарядов (EEPROM), или, как ее чаще теперь называют, флэш-память.

 

4.1. Оптические диски

 

Оптические диски в настоящее время остановились в развитии – появление суперемких носителей в виде Blu-Ray в 2008 году, сопровождавшееся в течение нескольких лет обширной рекламной шумихой, компьютерной индустрией осталось практически незамеченным. И даже в той области, для которой они предназначались – распространение фильмов высокого качества – Blu-Ray отнюдь не стали доминировать, оставшись скорее дорогой игрушкой для счастливых обладателей Sony PlayStation и «навороченных» домашних кинотеатров. А вот старые типы оптических носителей – CD и DVD – уйдут еще нескоро, потому что они идеально приспособлены для централизованного распространения медиаконтента и компьютерных программ. Постепенно уходят они лишь из применений, связанных с многократным использованием для переноса информации, того, для чего когда-то были предназначены дискеты, – флэш-носители оказались для этой цели надежнее, быстрее и удобнее.

 

4.1.1. Устройство оптических дисков

Оптический диск представляет собой диск из поликарбоната диаметром 120 мм и толщиной около 1,2 мм с отверстием диаметром 15 мм в центре. Существует и стандарт на 80-миллиметровые мини-диски. Простейший незаписываемый компакт-диск фабричного производства изготавливается в процессе, во многом напоминающем производство виниловых пластинок, – создается матрица, с которой штампуют копии. Сначала делается эталонный диск из стекла, рисунок будущих дорожек на котором вытравливается плавиковой кислотой в процессе, очень напоминающем изготовление печатных плат. Со стеклянного эталона методом гальванопластики изготавливают никелевые матрицы, с помощью которых путем литья под давлением штампуют диски.

Отдельные биты информации при этом представлены на поверхности диска углублениями (pits, часто их по-русски так и называют «питами»), соответствующими логической единице, и промежутками между ними (иногда их называют выпуклостями – bumps), соответствующими логическому нулю. Расположена дорожка питов на верхней стороне прозрачной подложки из поликарбоната, на которую напылением затем наносят отражающий слой (из алюминия или золота). Длина «питов» для компакт-диска 0,83-3,1 мкм, ширина 0,4 мкм, глубина 0,12-0,2 мкм, расстояние между витками спиральной дорожки 1,6 мкм (часто упоминают, что это примерно в 50 раз меньше толщины человеческого волоса). Для DVD питы меньше, а дорожки уже, потому на нем умещается примерно в шесть раз больше информации, чем на обычном CD (4,2 Гбайт против 600–700 Мбайт). Отражающий слой сверху покрывают защитным лаком и допечатывают полиграфическим способом или наклеивают картинку.

Однократно записываемые (R) и перезаписываемые (RW) диски выполняются гораздо сложнее, потому они менее надежны. Между прозрачной основой-подложкой и отражающим слоем (для последнего здесь часто используют серебро, как компромисс между недолговечностью алюминия и дороговизной золота) находится специальный информационный слой из вещества, которое под действием нагревания становится непрозрачным. В RW-дисках это вещество может менять свое состояние неоднократно (по тому же принципу, по которому обратимо засахаривается мед), но для записи новой информации необходима специальная операция стирания. Число циклов стирания и записи у RW-дисков довольно сильно ограничено (несколько сотен), о чем многие не подозревают, однако на практике такие числа никогда не достигаются.

В процессе записи в приводе используют тот же лазер, что и при чтении, – его мощность повышают так, чтобы он прогревал нужный участок-пит до достаточной температуры там, где на диске должна записаться логическая единица. Для облегчения формирования дорожки при записи на CD-R в процессе изготовления «болванки» осуществляется предварительная разметка – рельеф, содержащий метки кадров и биты синхронизации, записанные с пониженной амплитудой и впоследствии перекрываемые записываемым сигналом.

Надежность и долговечность дисков падает в ряду фабричный-однократный-перезаписываемый, поэтому для долговременного хранения информации лучше употреблять однократно записываемые диски. Хранить их следует в темноте и вдали от химически активных растворителей или кислот (почему-то я никогда не встречал рекомендацию хранить перезаписываемые компакт-диски в холодильнике, как старинные магнитные ленты, хотя это было бы логично). Обращаться с ними следует с осторожностью – брать только за края и стараться не ронять на грязный пол, отчего могут возникнуть царапины. Вообще-то небольшое количество царапин диску вредить не должно, но на практике это наблюдается лишь для аудиоформатов, для которых утрата части данных не критична.

 

4.1.2. Форматы оптических дисков

Существует поистине огромное количество форматов записи на оптический диск, из которых на практике имеет значение лишь разница между тремя основными разновидностями, это аудиодиски, видеодиски и диски с данными (или диски с набором файлов).

Кратко остановимся на каждом из типов.

♦ Аудиодиски (обычно это CD) характеризуются тем, что не содержат файлов в компьютерном смысле этого слова. Точнее, файлы на них вы обычно обнаружите, но это лишь вспомогательная информация об основном содержимом таких дисков – звуковых треках. Трек представляет собой единую (т. е. без разрывов) спиральную дорожку, содержащую цифровые данные, записанные с частотой дискретизации 44,1 кГц и глубиной представления звука в 16 битов (65 тыс. градаций). В классическом аудиодиске эти данные не подвергнуты сжатию никаким из алгоритмов и содержат информацию всего о двух каналах – т. е. представдяют собой стереозвук. Обычно в таких случаях говорят о «CD-качестве» звучания, которое немногим отличается от стандартной виниловой пластинки.

♦ Видеодиски в настоящее время можно встретить практически лишь в формате DVD-Video (если не считать более качественного Blu-Ray). Они ближе к компьютерным формам записи информации и содержат набор файлов определенных форматов. Фильмы на DVD сжаты с использованием алгоритма MPEG-2 для видео и различных (часто многоканальных) форматов для звука. Стандартный размер видеокадра для формата DVD стандарта PAL равен 720x576 точек, стандарта NTSC – 720x480 точек, широкоэкранные форматы образуются из этих кадров усечением кадра по высоте. Потому DVD-Video имеют не слишком высокое качество записи изображения, но для бытовых целей оно устраивает большинство потребителей (потому-то намного более качественные, но и дорогие, диски Blu-Ray не получили пока широкого распространения). Есть и диски DVD-Audio – они похожи на DVD-Video по принципу устройства и содержат намного более качественный звук, чем и Audio CD, и обычные компьютерные форматы, вроде MP3.

♦ Диски с данными содержат обычные файловые системы, аналогичные тем, что применяются на компьютерных жестких дисках, и потому могут содержать любую информацию: в том числе и аудио, и видео, но на этот раз в виде обычных файлов. Для хранения звука широко известен компактный формат MP3, для хранения видео обычно используются различные файлы-контейнеры (самый известный – AVI, к контейнерам также относятся такие форматы, как MP4 или, например, Flash Video), в которых может содержаться звуковая и видеоинформация в самых различных форматах. Многие бытовые плееры, видеомагнитофоны или музыкальные центры также могут проигрывать видео или аудио в компьютерных форматах.

Файловые системы на дисках с данными специфичны именно для этого вида носителей, и разница между ними имеет практическое значение лишь потому, что Windows продвигает свою любимую систему UDF и не очень вежливо обращается с другими (вроде распространенной Joilet). Но читать диски, записанные в любой такой системе, могут все программы и приводы, потому на практике не стоит этому специально уделять внимание.

Наконец, пользователю следует усвоить понятие сессии. Технология записи на оптический диск такова, что она не может прерываться, – вся информация на таком диске должна записываться в виде одной непрерывной дорожки, как на грампластинке. Если же запись прервать и начать заново, то придется записывать новую дорожку – или, как говорят, новую сессию. Диск, содержащий много таких сессий (мультисессионнный), не всегда может корректно читаться на старых приводах. В DVD и современных носителях Blu-Ray фабричного изготовления иногда разные сессии создают специально: например, в одной из них записывают обычное изображение телевизионного качества, в другой, зашифрованной – качества HDTV. Каждая сессия помечается при записи на диске специальными метками: lead-in в начале и lead-out в конце. Если метка lead-out не стоит, то такая сессия называется «незакрытой», и на диск можно дописывать данные в других сессиях.

На практике это имеет значение вот в каких случаях: во-первых, дополнять «закрытый» диск новыми данными не удастся. В большинстве случаев вы даже не сможете определить, сколько на нем свободного места, – он будет выглядеть как записанный полностью, до последнего байта. Потому все диски, которые можно дополнять (создавать новые сессии), оказываются «незакрытыми». Наоборот, видео– и аудиодиски всегда «закрывают», потому что плееры не «поймут» диска, в котором сессия не закрыта.

 

4.1.3. Запись оптических дисков

Как видим, запись оптических дисков разительно отличается от записи на жесткие диски или даже на флешки. Оптический диск представляет собой типичное устройство последовательного доступа – такое, в котором произвольный доступ к отдельным байтам невозможен. Чтобы перезаписать какой-то байт на таком диске, нужно сначала стереть весь диск и записать его заново. Чтобы сэкономить место и время, на практике разные программы используют такой прием – в новой сессии записывается только измененная информация (при этом старые варианты модифицированного файла благополучно остаются на диске, занимая место), а затем из старых сессий в новую переносится таблица размещения данных (Table of Contents, ТОС) таким образом, чтобы неизмененные файлы были доступны из новой сессии на своих старых местах, без перезаписи.

Образ диска

Образ – это файл (чаще всего с расширением iso, но нередко программы записи формируют и свои собственные разновидности образов: NRG, BIN, CIF, IMG и пр.), который содержит бинарную копию («бит в бит») всех данных, которые записываются на диск в составе одной сессии. Образ в некотором роде аналогичен сжатому ZIP-файлу, в котором тоже в едином файле может содержаться целый раздел диска, включающий много файлов и папок. Образ можно создать из сформированного проекта (нечто аналогичное печати «в файл»), либо получить, скопировав содержимое имеющегося диска. Создание образа служит одним из самых удобных способов копирования дисков, потому что в образе сохраняется даже загрузочная информация, если она есть. Разумеется, чтобы записать новый диск при наличии образа, требуется программа, которая образы эти «понимает» (о записи образов см. далее). Некоторые пользователи пытаются записать ISO-образ, как файл в составе нового проекта, и, естественно, терпят неудачу – перед «прожигом» программа формирует новый образ, полагая старый просто данными, в результате чего на диск записывается полная каша.

На диске к этой книге в папке Compact Disk размещена одна из бесплатных программ записи на CD и DVD – находящаяся на пике популярности уже в течение более шести лет Small CD Writer. Созданная еще в 2005 году программистом по имени Анатолий Вознюк, она совершенно не потеряла актуальности, а минималистский интерфейс, в котором нет ничего лишнего, зато есть все необходимое, только привлекает пользователей. Она состоит из одного-единственного файла, ее не надо устанавливать, она не полезет Сеть искать обновления, не внесет дополнительного мусора в реестр и не будет капризничать в любой версии Windows.

Small CD Writer умеет создавать, однако, только диски с данными, а также копировать имеющиеся диски через создание ISO-образа. Специфические форматы аудио– или видеодисков Small CD Writer создавать не умеет – для этого требуются другие программы.

Однако этот вопрос по настоящему актуален только в Windows XP. Современные версии Windows по понятным причинам все равно не могут копировать диски, и для создания ISO-образа (или копирования напрямую) потребуются сторонние программы. А все остальное: и запись дисков с данными, и создание аудио– и видеодисков – они прекрасно выполняют встроенными функциями.

В Windows XP тоже можно записывать, как минимум, компакт-диски с данными (о существовании DVD она не осведомлена, кроме их простого чтения). Однако в ней это реализовано крайне неудобно – в два неочевидных этапа, на первом из которых файлы только готовятся для записи (в других программах это назвали бы подготовкой проекта), а потом собственно «прожига», причем управлять этим процессом приходится вручную, даже мастер записи компакт-дисков лишь подскажет, куда обращаться. В новых ОС запись на оптические диски реализована значительно удобнее, и поддерживаются все форматы, причем в Windows 7 это организовано еще лучше, чем в Vista.

При вставке в лоток привода чистого диска Windows сама предложит варианты самых распространенных действий (рис. 4.1). В подробности этого процесса, ввиду многочисленности вариантов, мы вдаваться не будем, отметим только, что аудио– и видеодиски (в том числе диски с наборами фотографий – слайдшоу с музыкальным сопровождением) могут потом проигрываться на любом воспроизводящем устройстве. А запись файлов на диск с данными происходит в файловой системе UDF (Vista называет это «живая файловая система»), и сессия при этом не закрывается (диск оказывается мультисесионным), потому дополнять такие диски гораздо проще и быстрее, чем записывать их с нуля. Полноценно работать с уже созданными в других программах подобными дисками (например, в файловой системе Joulet), Windows, к сожалению, не умеет – прочесть сможет, а для записи диск придется переформатировать.

Рис. 4.1. Варианты действий, предлагаемые Windows 7 для чистого CD (слева) и чистого DVD (справа)

Диск, на котором уже есть записи, можно просто стереть (выбрав из контекстного меню привода в окне Компьютер пункт Стереть этот диск), а в новых системах можно в один прием записать на него новые данные, при этом стирание осуществится автоматически. Если в Windows XP у вас в контекстном меню значка нет такого пункта, то обратитесь к пункту Свойства для данного привода, перейдите там на вкладку Запись, и отметьте пункт Разрешить запись CD на этом устройстве.

Проблемы с очищенным диском

В некоторых случаях перезаписываемый DVD, стертый процедурами очистки Windows Vista или «семерки», перестает потом распознаваться в Windows XP и даже в самих этих системах. Не спешите его выбрасывать – на самом деле диск вполне исправный, просто Windows запуталась в форматах. Рецепт преодоления этого препятствия такой: запустите Small CD Writer и очистите с его помощью диск еще раз, причем через операцию Полная очистка. Продолжаться этот процесс для DVD может довольно долго (минут пятнадцать), причем может показаться, что программа просто зависла. Тем не менее, дождитесь окончания процедуры (исчезнет окно с сообщением об идущей очистке), затем закройте Small Cd Writer, обратитесь к значку Компьютер и в контекстном меню оптического диска выберите пункт Форматировать. По умолчанию Windows отформатирует диск в системе UDF 2.1, и он станет доступен во всех системах.

Windows 7, наконец, научилась записывать диски из ISO-образов, разворачивая их содержание на «болванку», – при щелчке на файле ISO-образа вы получите предложение, показанное на рис. 4.2. Vista сама по себе этого не умеет (не говоря уж про XP), но мне с предустановленной системой Vista в ноутбуке Toshiba достался Toshiba Disk Creator, который реагировал в том числе и на файлы ISO. А вот создавать ISO-образы имеющегося диска, как мы уже говорили, никакая из Windows не может, и для этого понадобятся сторонние программы, вроде Small CD Writer или весьма навороченной (и к тому же платной, но зато умеющей абсолютно все) программы Nero Burning ROM.

Рис. 4.2. Предложение Windows 7 по записи ISO-образа

О создании некоторых специфических дисков (например, загрузочных или так называемых Live CD) мы еще поговорим в главе 8 «Установка Windows».

 

4.2. Флэш-карты и флэш-накопители

 

Первые постоянные запоминающие устройства (Read-Only Memory, ROM) не позволяли изменять однажды записанную информацию. В 1956 году сотрудник корпорации American Bosch Arma Йен Чоу (Wen Chow) получил патент на устройство, которое теперь известно, как «однократно программируемое ROM» (OTPROM). В этом патенте, между прочим, впервые был употреблен термин «прожиг» (burn) – микромодуль состоял из матрицы с плавкими перемычками, которые при программировании пережигались подачей на них большого напряжения. Любопытно, что этот способ вполне дожил до наших дней – не меньше четверти микроконтроллеров (т. е. специализированных микропроцессоров) в мире, особенно из тех, что попроще, еще лет пять назад выпускались именно с такой однократно программируемой встроенной памятью – ввиду крайней ее дешевизны. В самом деле, если программа какой-нибудь игрушки отработана на опытных образцах, зачем ее, однажды записанную, потом менять, и кто этим будет заниматься? И лишь в последние годы «прожигаемая» память стала постепенно вытесняться более удобной flash-памятью – когда последняя подешевела настолько, что смысл в использовании OTPROM почти пропал.

В 1967 году в незабвенной Bell Labs был построен первый образец EPROM – энергонезависимой памяти, которую можно было неоднократно перепрограммировать (стирая информацию ренгеном). В 1971 году (одновременно с изобретением первого микропроцессора) фирма Intel разработала первый коммерческий образец EPROM (чип 1701 и его немного усовершенствованный вариант 1702), который стирался ультрафиолетовым светом через специальное окошко и потому получил название UV-EPROM. В 1974 году в Intel пришел некто Джордж Перлегос (George Perlegos), грек по происхождению и будущий основатель компании Atmel. Под его непосредственном руководством была разработана микросхема EEPROM под названием 2816 – чисто электрически перепрограммируемое ПЗУ. Это и был прообраз сегодняшней flash-памяти. Основой и EPROM, и EEPROM стал транзистор с плавающим затвором, изобретенный в той же Intel Доном Фрохманом (Don Frohman). И в последующем, несмотря на смены технологических эпох, принцип устройства ячейки энергонезависимой памяти остался неизменным – какой бы способ стирания и записи ни использовался.

Некоторые термины и аббревиатуры, относящиеся к памяти

RAM (Random Access Memory) – память с произвольным доступом. На самом деле это любая память, содержимое которой уничтожается при выключении питания (в чистом виде, без приставок, сокращение RAM часто применяется для обозначения основной памяти ПК). Русское наименование: оперативное запоминающее устройство (ОЗУ) – следует признать более соответствующим смыслу, т. к. термину «с произвольным доступом» соответствуют и многие типы EPROM.

DRAM (Dynamic RAM) – динамическая RAM. Так называют электронную память, которая требует постоянного восстановления (регенерации) своего содержимого даже при включенном питании. По-русски: динамическое ОЗУ или ЗУПВ (запоминающее устройство с произвольной выборкой). Хотя последнее есть фактически перевод более общего термина RAM, но применяется оно обычно к динамической ее разновидности.

SRAM (Static RAM) – статическая RAM, статическое ОЗУ. Энергозависимая память, построенная на триггерах, и потому, в отличие от DRAM, регенерации не требующая, но намного более дорогая и менее емкая в расчете на единицу площади кристалла.

ROM (Read-Only Memory) – память только для чтения. Русское название – постоянное запоминающее устройство (ПЗУ) – более соответствует смыслу, т. к. термин относится ко всем видам энергонезависимой памяти, а не только к тем, что для «чтения» (т. е. и к перезаписываемым тоже – напр., к EEPROM). В чистом виде сокращение ROM употребляется редко.

PROM (Programmable ROM) – программируемое ПЗУ (ППЗУ). В чистом виде, без приставок, обычно относят к OTPROM (One Time Programmable ROM) – однократно программируемое ПЗУ. К PROM также относят такую разновидность, как масочное ПЗУ – вариант OTPROM, который программируется не самим пользователем, а прямо на фабрике в процесс изготовления.

EPROM (Erasable Programmable ROM) – стираемая/программируемая ROM. По-русски ее часто называют ПППЗУ, перепрограммируемое ПЗУ. Иногда употребляется, как синоним ультрафиолетовой UV-EPROM.

EEPROM (Electrically Erasable Programmable ROM) – электрически стираемое перепрограммируемое ПЗУ, ЭСППЗУ.

Flash memory (от flash – вспышка, молния) – первоначально термин придуман для обозначения прогрессивной разновидности EEPROM, в которой чтение/запись для ускорения процесса производятся сразу целыми блоками. Позднее (когда медленная EEPROM почти исчезла из обращения) стал фактическим синонимом EEPROM, и теперь обозначает любые разновидности ЭСППЗУ.

Обновление информации в микросхемах EEPROM – страшно медленный процесс. Во-первых, каждую ячейку требуется сначала стереть – ведь запись, т. е. помещение на плавающий затвор зарядов тем или иным способом, лишь приводит ее в состояние «логического 0», а восстанавливать «логическую 1» приходится отдельно. Во-вторых, из-за большого потребления тока в процессе записи приходится каждую ячейку записывать фактически отдельно, а т. к. этот процесс занимал миллисекунды, то для перезаписи даже сравнительно небольших массивов требовались уже секунды. Правда, чтение из EEPROM – процесс очень быстрый, даже быстрее, чем из обычной компьютерной памяти DRAM.

Термин «flash-память» придумал в июне 1984 года некто Шойи Аризуми (Shoji Ariizumi), сотрудник корпорации Toshiba, уже после того, как его руководитель доктор Фуджио Масуока (р. 1943) послал сообщение о новом, изобретенном им типе энергонезависимой памяти на конференцию разработчиков электронных приборов IEDM в Сан-Франциско. Причем в сообщении Масуоки содержится описание сразу обеих главных современных архитектур flash-памяти: как NOR, так и NAND.

Флэш-память (будем в дальнейшем ее так, по-русски, и называть) отличается от обычной EEPROM тем, что запись (и стирание) в ней производятся целыми блоками, обычно равными классическому размеру сектора на жестком диске – 512 байтов. Это значительно ускоряет процесс записи, но одновременно придает флэш-памяти элементы устройства последовательного доступа, когда для перезаписи одного байта приходится перезаписывать целый блок. Для обычных применений флэш-памяти – в качестве носителей медиаинформации – это небольшой недостаток, к тому же она в этом отношении не отличается от жестких дисков. В такой схеме записи некий массив данных готовится заранее (помещается в специальный временный буфер SRAM, который имеется на том же кристалле, что и основная память), затем все нужные ячейки разом стираются, и разом же в них записывается информация из буфера. В современных типах флэш-памяти скорости чтения и записи практически сравнялись, а емкость отдельных устройств доведена до 32128 Гбайт и даже до 160–250 Гбайт для твердотельных жестких дисков.

Крупнейший недостаток флэш-памяти – ограниченное в сравнении с магнитными носителями или обычной памятью число циклов перезаписи информации, обычно на уровне нескольких десятков тысяч, в крайнем случае сотен тысяч. В жестком диске такой ресурс мог бы исчерпаться за несколько недель или месяцев. Для того чтобы обойти эту проблему, используют метод равномерного распределения записываемой информации по объему карты. В некоторых устройствах, имеющих собственный встроенный контроллер (твердотельные жесткие диски, карты Secure Digital, Compact Flash, USB-накопители), это обеспечивает само устройство, для других были созданы специальные файловые системы: exFAT для Windows и JFFS2 и YAFFS для GNU/Linux.

Наиболее распространены три типа потребительских устройств на основе флэш-памяти: флэш-карточки, флэш-накопители и твердотельные диски. Кратко рассмотрим каждый из типов и их потребительские свойства.

 

4.2.1. Флэш-карточки

Флэш-карточки существуют во многих разновидностях, из которых последнее время доминирует тип SD (Secure Digital). Названный так за возможность шифрования содержимого (первоначально SD-карты собирались приспособить к распространению медийного контента, вроде кинофильмов), этот тип карт, однако, стал применяться просто как носитель информации во всяческих мобильных устройствах: от сотовых телефонов и MP3-плееров до фотокамер и электронных книг. SD делятся по скоростным характеристикам, и если на карточке указан класс карты (2, 4, 6 и т. д., что означает скорость записи в Мбайт/с), то обычно перед вами медленная старая карта. На современных образцах тип не указывают, потому что они заведомо опережают устаревшую скоростную классификацию. Современные видеокамеры пишут видео при скорости 24 Мбит/сек (3 Мбайт/сек) – это самая скоростная задача в бытовой области (больший поток требует разве что многокадровая автоматическая съемка фотокамер с большой матрицей). Таким образом, для FullHD-видео требуется SD-карта класса не ниже 4, и это требование перекрывают все современные карты.

Карты SDHC (High Capacity – высокой емкости) совместимы с обычными SD «сверху вниз» – устройства, способные работать с SDHC-картами, поддерживают также и SD-карты. SD/SDHC-карты существуют в нескольких типоразмерах: обычные, microSD и miniSD, причем по форм-фактору они не совместимы друг с другом – miniSD короче и несколько уже обычной, а microSD вообще значительно ее мельче, потому без соответствующих переходников их в слот для обычной карты вставить нельзя..

Кроме карт SD, до сих пор распространены также карты Compact Flash (самый надежный, скоростной и емкий, но одновременно и самый крупный по размеру тип карт), XD-picture, MMC (совместима с SD) и другие типы карт, отличающиеся друг от друга конструктивным оформлением и интерфейсом. Учтите, что не все старые устройства могут воспринимать современные карточки большой емкости – при покупке надо проверить этот параметр по инструкции к устройству.

На флэш-картах традиционно используется простая и удобная файловая система FAT, она обеспечивает оптимальную производительность контроллера (впрочем, флэшку можно отформатировать в любой файловой системе, но мобильные устройства могут вас не «понять»). Для старых карточек использовалась FAT16, которая не поддерживает объемы более 2 Гбайт, а современные карты применяют систему FAT32. Другая особенность новых карточек большого объема – при чтении они поддерживают посекторную адресацию (т. е. только к блокам объемом 512 байтов, как на жестком диске), в то время как старые карты объемом до 4 Гбайт имеют побайтную адресацию (как оперативная память).

Для подключения флэш-карточек к компьютеру применяются различные кардридеры, которые иногда встраиваются в ноутбуки или принтеры, часто их можно встретить в конструктиве, заменяющем дисковод для дискет в настольных системных блоках. Все эти устройства используют порт USB для коммуникации, выпускаются и отдельные кардридеры, подключаемые к USB-порту. Обычно никаких специальных драйверов для кардридеров не требуется (за исключением тех, что встроены в принтеры – для доступа к ним из компьютера).

Стационарные кардридеры (в том числе встроенные в принтер) неудобны тем, что, подобно дисководу для дискет, они все время светятся в Проводнике или других файловых менеджерах даже при отсутствии карты в устройстве. Если в кардридере много гнезд под разные типы карточек, то таких «дисков» в Проводнике будет тоже показано много, и бывает сложно отличить пустые гнезда кардридеров от, например, флэш-накопителя. Чтобы неиспользуемые гнезда кардридеров не мешали, их можно отключить в Диспетчере задач.

 

4.2.2. Флэш-накопители (USB-накопители)

Флэш-накопители отличаются от флэш-карточек только тем, что объединяют в одном конструктиве кардридер и собственно флэш-память, и в просторечии часто называются просто «флэшки». Флэш-накопители не различаются по типам, и все устроены одинаково – компактный корпус заканчивается USB-разъемом типа A. В Windows, начиная с XP, специальных драйверов для флэш-накопителей не требуется. Флэш-накопители – это то, что пришло на замену дискетам для переноса информации с компьютера на компьютер, только намного большей емкости. Все современные компьютеры позволяют также осуществлять загрузку с флэш-накопителей (разумеется, для этого «флэшка» должна иметь специальный загрузочный сектор, как и любые другие диски). Как и флэш-карточки, флэш-накопители можно форматировать в любой удобной файловой системе: и в FAT, и в NTFS.

Самое, пожалуй, неудобное свойство «флэшек» (и флэш-карточек, и флэш-накопителей) касается так называемого безопасного извлечения устройств – перед тем, как вытащить флэшку из разъема, следует проделать специальную процедуру ее полного отключения. Это дико неудобное свойство связано с особенностями представления файлов в операционной системе. Возможно, вы знаете, что в качестве файлов в ОС представляется любой порт, – даже операция обращения к принтеру есть по сути операция открытия файла. Но может случиться так, что к моменту физического отключения соответствующий «файл» оказался не закрыт, и данные попросту не записаны полностью. Тогда при отключении могут быть различные неприятности – вплоть до того, что флэшку оказывается невозможно даже отформатировать заново, чтобы привести в порядок. Такую флэшку останется только выбросить.

На самом деле, если соблюдать аккуратность, то специальная процедура «безопасного извлечения устройств» оказывается необязательной. Прежде всего следует дождаться окончания обмена данными (о чем можно судить по тому, что лампочка на флэшке перестает мигать) – если выдернуть флэшку в момент передачи данных, то это почти гарантированная поломка. Далее для надежности стоит закрыть программу, через которую осуществлялся обмен, – например, окно Проводника, в котором отображается содержимое флэш-диска. Убедившись, что больше никакая программа не претендует на «общение» с устройством, его можно извлечь.

Конечно, это совет из серии «свой страх и риск» – полную гарантию дает только обращение к функции безопасного извлечения устройств. Но автору очень неохота ковыряться в недружественном интерфейсе этой функции Windows, которая в последних версиях к тому же перестала полностью отключать устройство, лишь на словах гарантируя сохранность данных. Пока, соблюдая приведенные ранее меры предосторожности, мне не удалось испортить ни одного устройства.

Но, разумеется, и я предпочитаю не рисковать, когда дело доходит, например, до внешних жестких дисков – там цена ошибки оказывается слишком высокой. Если вам неохота возиться с утомительным «безопасным извлечением устройств» и в то же время боязно что-то испортить, то хороший компромисс представляет программа USB Safely Remove, которая делает процесс извлечения устройства гораздо удобнее и нагляднее. На диске к этой книге, к сожалению, я не могу ее разместить – программа платная и стоит в интернет-магазине Softkey.ru 299 рублей. Причем лицензия выдается не компьютеру, а человеку, который за эти деньги может использовать программу на любом количестве своих компьютеров.

 

4.2.3. Твердотельные диски

В 2010 году, по данным компании Gartner, на твердотельных дисках хранилось 7,9 % информации, но уже к 2012 году эта цифра вырастет вдвое – до 15,9 %. Как раз когда эта книга была уже подготовлена к печати, пришло известие, что компания-производитель материнских плат Gigabyte официально представила материнскую плату со встроенным в нее твердотельным жестким диском емкостью 20 Гбайт. В данном случае SSD-накопитель будет выполнять роль емкого буфера памяти, значительно увеличивающего скорость загрузки работы операционной системы и установленных программ. Для таких систем Intel выпустила специальный чипсет под названием Z68.

Прогресс в разработке новых типов флэш-памяти привел к тому, что твердотельные диски (solid-state drive, SSD) обеспечивают намного большую скорость чтения/записи, чем обычные магнитные накопители с механическими головками. Прежде всего это получается потому, что скорость доступа к таким дискам не зависит от места размещения информации – исключается долгая операция позиционирования головок. Для SSD не требуется дефрагментация, упреждающее чтение и другие приемы, ускоряющие обмен информацией с обычными дисками. В Windows 7 реализована специальная поддержка SSD, но и другие системы с ними тоже будут работать быстрее.

Кроме того, твердотельные диски не боятся ударов и сотрясений (обычный жесткий диск запросто можно вывести из строя, если его просто резко повернуть в процессе обмена информацией), не так греются и потребляют меньше энергии, не шумят, занимают меньше места и готовы к работе немедленно после включения – времени на разгон шпинделя не требуется. Спрашивается – почему же до сих пор SSD не вытеснили магнитные накопители полностью?

Причиной служит несколько факторов, определяющим из которых является стоимость – на начало 2011 года для SSD она составляла от 2 долларов за каждый гигабайт емкости, при примерно 8 центах для жестких дисков. Кроме того, максимальная емкость SSD меньше, чем у жестких дисков, более чем на порядок (рядовые SSD для «ширпотребовского» сектора имеют емкость 64-120 Гбайт), и их стоимость растет прямо пропорционально емкости. Традиционно указывается, что SSD ограничены количеством циклов перезаписи, однако этот недостаток быстро выправляется за счет различных ухищрений, и сегодня можно считать, что срок службы рядового SSD не меньше, чем обычного магнитного диска (т. е. его емкость исчерпается раньше, чем он успеет выйти из строя).

Потому, если средства вам позволяют, ставьте в свою систему SSD, не раздумывая. Это обеспечит вам существенное ускорение работы (например, загрузки ОС), и в целом компьютер, особенно мобильный, окажется надежней. Никаких особых действий для этого применять не требуется – интерфейсы SSD точно такие же, как и у обычных жестких дисков.

 

4.3. Настройка автозапуска дисков и флэш-накопителей

Автозапуск дисков (не путать с автозагрузкой приложений! – о ней пойдет речь в главе 10 «Установка, удаление и настройка программ в Windows») – довольно полезная штука, но иногда он начинает раздражать. Когда вы в ответ на помещение в привод диска в сотый раз получите предложение с выбором из почти десятка вариантов действий, то захотите, чтобы это предложение не появлялось. Нюанс тут заключается в том, что выбрать какой-то один вариант (Всегда выполнять это действие) весьма затруднительно – в общем случае для разных случаев необходимы разные варианты. Кроме того, отметка в этом пункте никак не повлияет при выборе варианта Не выполнять никаких действий – предложение все равно будет запускаться.

Кроме того, когда вы остановили запуск какого-то диска через имеющийся на нем файл Autoruninf, при щелчке на значке привода в Проводнике он все равно будет запускаться, что иногда ставит новичков в тупик. Чтобы только открыть диск или флэш-накопитель в Проводнике для просмотра файлов, не запуская с него никаких программ, надо щелкнуть на его значке правой кнопкой мыши и выбрать пункт Проводник.

В Windows XP автозапуск дисков и флэш-накопителей можно настроить через контекстное меню значка привода или накопителя в окне Мой компьютер, пункт Свойства, вкладка Автозапуск. В Vista и «семерке» то же самое устроено куда удобнее – в Панели управления есть позиция Автозапуск, где настройки для всех типов содержимого собраны в одном окне (рис. 4.3). Там же можно отменить автозапуск полностью (снимите отметку в пункте Использовать автозапуск для всех носителей и устройств).

Рис. 4.3. Раздел Автозапуск Панели управления Windows Vista и 7

Если все же вам нужна полная гарантия того, что никакие диски не будут запускаться автоматически (включая и диски, и флэш-накопители с файлом Autorun.inf), есть несколько способов обеспечить это через реестр (о реестре и его редактировании подробнее см. в разд. 12.7 «Настройки через реестр>>). По крайней мере, частично того же эффекта в Windows Vista и 7 можно добиться, выбрав во всех пунктах окна, показанного на рис. 4.3 (или во вкладке Автозапуск свойств диска Windows XP), опцию Не выполнять никаких действий. Но настройки через реестр позволяют выполнить то же самое быстрее или выборочно для разных типов носителей.

Полный запрет на запуск с оптического привода через файл Autoruninf можно обеспечить, присвоив в разделе HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\ Cdrom параметру AutoRun значение, равное 0.

Полный запрет на запуск Autoruninf с любого накопителя устанавливается через раздел HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows NT\ CurrentVersion\IniFileMapping. В нем надо создать раздел под названием Autoruninf, в этом разделе автоматически образованному параметру «по умолчанию» присвоить значение @SYS: DoesNotExist. Это способ предотвращает запуск Autoruninf даже при щелчке на значке привода в Проводнике.

Более тонкая настройка возможна, если в ветке реестра HKEY_LOCAL_MACHINE\ Software\Microsoft\Windows\CurrentVersion\Policies \Explorer (или, только для текущего пользователя, в аналогичной ветке раздела HKEY_CURRENT_USER), параметру NoDriveTypeAutoRun присвоить одно из значений, сведенных в табл. 4.1.

Таблица 4.1. Значения параметра NoDriveTypeAutoRun

Отдельные значения можно суммировать. Так, в Windows XP значение по умолчанию для этого параметра равно 0x91 (отключен автозапуск сетевых и неизвестных дисков). Если в разделе Policies указанной ветки нет раздела Explorer, то его следует создать, в нем создать параметр NoDriveTypeAutoRun типа DWORD и присвоить ему нужное значение.

Наконец, еще более тонкая настройка автозапуска возможна через ветку HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\CurrentVersion\Explorer\AutoplayHand lers\CancelAutoplay\Files. Этот раздел имеется у всех систем и, скорее всего, уже содержит ряд позиций. Параметры этого раздела представляют собой маски файлов, встретив которые в автозапуске система должна предотвратить его запуск. Вы можете добавить туда параметры (строкового типа, значения им не присваиваются), которые означают следующее:

♦ *.* – запрещает автозапуск всех файлов с любыми расширениями;

♦ *.exe – запрещает автозапуск исполняемых файлов;

♦ *.bat и *.cmd – запрещает автозапуск командных (пакетных) файлов и т. д.

Действовать этот запрет будет только на оптический привод и только на собственный автозапуск Windows, Autoruninf по-прежнему будет выполняться.

Ситуация с автозапуском настолько запутанна, что обычно рекомендуют применить сразу все указанные методы, тогда автозапуск будет гарантированно запрещен для всех типов накопителей во всех случаях. Но такой кардинальный способ решения проблемы устраивает далеко не всех – все-таки функция автозапуска довольно удобна. Потому на практике обычно применяют частичные методы фильтрации через штатные средства Windows, а не через реестр.

Отметим, что на флэш-накопителе, отформатированном вами собственноручно, не может, естественно, возникнуть никаких Autoruninf. И если флэш-накопитель вдруг стал самопроизвольно запускаться при подключении к USB-порту, или то же самое делает флэш-карточка при вставке в кардридер – это однозначно действие вредоносной программы. Попытку запуска следует пресечь, а из содержания этого самого Autoruninf, открыв его в Блокноте, можно узнать, какую программу он запускает. Обычно достаточно вручную удалить и эту программу, и сам Autoruninf, но стоит все-таки потом дополнительно проверить флэшку какой-нибудь антивирусной программой, а главное, попытаться вспомнить, откуда возникла эта зараза, и устранить причину заболевания.