1001 совет по обустройству компьютера

Ревич Юрий Всеволодович

В книге собраны и обобщены советы по решению различных проблем, которые рано или поздно возникают при эксплуатации как экономичных нетбуков, так и современных настольных моделей. Все приведенные рецепты опробованы на практике и разбиты по темам: аппаратные средства персональных компьютеров, компьютерные сети и подключение к Интернету, установка, настройка и ремонт ОС Windows, работа в Интернете, защита от вирусов. Рассмотрены не только готовые решения внезапно возникающих проблем, но и ответы на многие вопросы, которые возникают еще до покупки компьютера. Приведен необходимый минимум технических сведений, позволяющий принять осознанное решение.

Компакт-диск прилагается только к печатному изданию книги.

Введение

Вторая грамотность и проблемы ее освоения

Владение компьютером часто называют второй грамотностью современного человека. Очень трудно сегодня назвать область деятельности, в которой можно было бы обойтись без компьютеров, – даже фермерам, работающим в поле, приходится вести бухгалтерию и представлять налоговые декларации. Моя знакомая, биохимик, уже семь лет проживающая в американском Хьюстоне, легко обходится без умения водить машину даже в поголовно сидящей за рулем Америке, а вот без навыков работы на компьютере она просто не смогла бы работать в своей области.

Вместе с тем наблюдается и определенный дефицит идей по поводу того, в какую сторону нужно направить развитие компьютеров. В этом нет ничьей вины – просто компьютер стал одним из таких изобретений в истории, которое никто не ждал, не предсказывал, и ему даже сначала не придумали адекватного применения. Другим таким изобретением была атомная бомба – тоже понадобилось не одно десятилетие, чтобы окончательно осознать ее главное назначение – не как усовершенствованного снаряда для пушки, а как не существовавшей до этого категории оружия сдерживания. Так и истинное назначение компьютеров начинает обретать видимые черты только сейчас, на наших глазах.

Потому никого не должно удивлять то, что весной 2011 года, через полтора года после выхода Windows 7 и через четыре с лишним после появления ее куда менее удачной предшественницы Vista, число пользователей Windows XP, давно оставленной Microsoft почти без поддержки, и в нашей стране, и в мире все еще превышало 50 

%

[1]

.

И, несомненно, этот процент был бы еще выше, если бы новые версии не устанавливались безальтернативно на компьютеры, поступающие на прилавки.

Массовое неприятие новых версий происходит не потому, что они хуже, – наоборот, за исключением того, что пользователю придется дополнительно осваивать непривычный интерфейс, новые версии во многом улучшены, более стабильны и приспособлены к современным реалиям. Даже вызвавший много споров новый «ленточный» интерфейс Microsoft Office, как показал опыт, привлекательнее как минимум для новичков.

Просто так произошло, что появление этих новых версий совпало с тем временем, когда прогресс в области персональных компьютеров замедлился. С каждым годом новые модели «железа» становятся быстрее, растет емкость носителей информации, но производители могут предложить все меньше решений принципиально новых задач, привлекательных для пользователя. Революции, сравнимые по масштабу с переходом от печатной машинки к текстовому редактору или от пленки к цифровой фотографии, уже произошли. Центр роста переместился в Сеть, где такие революционные процессы, как вытеснение традиционных СМИ онлайновыми или печатных книг электронными изданиями, уже не предполагают существенного изменения технической базы ПК. «Обычные» компьютеры ждут следующего качественного скачка, чтобы они могли получить действительно новые функции.

Терминологические трудности

Поднимите руки те, кто твердо знает, как писать «интернет» – со строчной буквы или с прописной? Мы сейчас даже не о том, что слово «интернет» стало нарицательным, вроде «ксерокса», и потому, как многие полагают, может не писаться с прописной буквы (так считает интернет-компания «Яндекс», газета «Коммерсант» и др. авторитетные источники). Российская академия наук авторитетнее их, и она рекомендует написание слова с прописной буквы: Интернет.

Но для какого именно значения термина? Авторы этой рекомендации, гуманитарии-филологи, предполагают, что иного смысла, кроме названия глобального информационного пространства, термин «Интернет» не несет. И в быту чаще всего имеется в виду именно это значение, потому подключиться к Интернету – означает получить доступ к ресурсам Всемирной сети, аналогично по смыслу выражениям «пойти в библиотеку» или «поглядеть в энциклопедии». Никакого технического содержания это действие не подразумевает – запускаете браузер и оказываетесь «подключенными к Интернету».

«Отец» Интернета, сэр Тим Бернерс-Ли, во избежание путаницы когда-то даже придумал отдельный термин для этого явления – «веб» (паутина). Но термин прижился лишь в некоторых отдельных областях (например, веб-технологии или веб-сайты) или в высокопарных журналистских метафорах (World Wide Web – Всемирная Паутина), а в быту явление продолжает называться Интернетом, пересекаясь с иным – техническим значением этого слова.

Обратимся к первоисточнику – английскому языку, где Internet и internet имеют четко различимые смысловые значения. Там написание со строчной буквы никакого отношения к глобальному информационному пространству (вебу) не имеет и означает просто объединение сетей (сокращение от interconnected networks), причем только лишь совершенно определенным образом – посредством маршрутизации пакетов данных. В этом смысле «интернет» означает нечто совсем другое, чем «Интернет» – а именно чисто технический процесс соединения отдельных сетей друг с другом. Однако, чтобы не запутать читателей окнчательно, в этой книге мы будем везде писать «Интернет» с прописной буквы, как того требуют правила.

Этот пример терминологической путаницы, большого значения сам по себе не имеющий (обычно понятно из контекста, о чем идет речь), однако, служит превосходной иллюстрацией к ситуации, сложившейся в компьютерной области. Один и тот же термин может употребляться в совершенно разных смыслах, а усилия маркетологов и журналистов вносят в это дело дополнительную путаницу. Потому, если вам хочется построить домашнюю сеть, с ходу разобраться, что же нужно спрашивать в магазине, чтобы продавец не стал над вами смеяться или не продал вам нечто совсем ненужное, очень непросто: то ли маршрутизатор, то ли коммутатор, то ли концентратор, то ли вообще точку доступа? Пытаясь разобраться, вы узнаете, что сеть можно построить и вообще без какого-либо из этих устройств, и крыша начинает съезжать окончательно.

Зачем все это?

Несколько слов о том, почему все еще необходимы такие книги, как та, что вы держите в руках. Если вам нравится копаться в обсуждениях на интернет-форумах и осваивать все методом проб и ошибок, то эта книга вам наверняка не понадобится – она адресована в первую очередь тем, кто рассматривает компьютер как рабочий инструмент, и воспринимает его настройку не как увлекательный способ проведения досуга, а как неизбежную, хоть и утомительную необходимость. Когда-нибудь необходимость в таких книгах исчезнет – современный пользователь компьютера находится в положении шофера начала XX века, который одновременно должен был быть и квалифицированным ремонтником. Почему так получилось?

Уже IBM PC образца 1981 года по своим возможностям настолько превосходила печатные машинки и механические арифмометры, что разработчики компьютерных систем и программисты почувствовали себя во главе прогресса и никак с этих высот спуститься не могут – они слишком редко думают об удобстве тех, кому придется осваивать их творения. А ведь простое решение лежит на виду – его использовали производители GSM-модемов, загрузившие все нужные программы и драйверы прямо в память устройства. Едва ли эти GSM-модемы значительно проще в настройке, чем какие-нибудь сетевые маршрутизаторы, и наверняка там имеется множество параметров с такими же непонятными аббревиатурами в названиях. Но сотовые модемы просто втыкают в свободный порт USB, после чего они непосредственно готовы к использованию – там даже нигде не звучит слово «драйвер», вы о нем просто ничего не знаете.

Российские сотовые компании в 2008–2009 годах, когда появились эти модемы, были немало удивлены – они пошли на эксперимент, рассчитывая на спрос порядка сотен тысяч, а продали в первый же год по явно завышенным ценам четыре миллиона модемов, по сути представляющих собой предельно упрощенный мобильник. Они думали, что, имея сотовый телефон, никто не будет покупать такую штуку, в принципе лишнюю, да еще и привязанную к конкретному оператору, но решительно ошиблись – очевидно, дело как раз в этой предельной простоте настройки, точнее, в отсутствии необходимости ее вообще производить.

Я так и ждал, что после этого на аппаратном рынке будет не протолкнуться от устройств подобного рода – подавляющее большинство аппаратного обеспечения позволяет применить точно такой же способ. Чего стоит, например, загрузить драйвер видеокарты вместе с сопутствующими программами прямо в видеокарту и автоматически разворачивать его во время установки операционной системы? То же и со всеми встроенными компонентами, вроде тачпадов и аудиосистем, не говоря уж о внешних устройствах, всяких принтерах-сканерах – они-то чем от тех модемов отличаются? Увы, до сих пор мы обречены возиться с недолговечными компакт-дисками, которые портятся и теряются. И, самое главное, при таком положении вещей приходится преодолевать множество подводных камней, не всегда понятных по своему происхождению и смыслу.

Разработчики новых версий Windows оказались в плену этих массовых стереотипов мышления – цели-то перед ними со стороны по большому счету некому ставить. Они отличаются от торговцев одеждой или автомобилей тем, что вынуждены сами придумывать себе цели и задачи. Потому им кажется естественным навязывание покупателям своего профессионального стиля мышления, того, что называется «программистской логикой». Причем представители мира «свободного софта» в этом отношении отстали еще намного больше разработчиков Windows.

А что – это?

Все это не может не вести к перекосам: упрощая те или иные отдельные вещи, разработчики одновременно вводят какие-нибудь «средства контроля пользовательских учетных записей» или «домашние группы», еще больше усложняющие жизнь «цифровым мигрантам». Ситуация начинает напоминать историю со стальными дверями в квартирах, которые, не иначе, как в приступе массового помешательства, в одночасье установило в нашей стране все население чуть ли не поголовно – и что, количество квартирных краж хоть сколько-нибудь уменьшилось? Ну да, ворам пришлось слегка повысить свою квалификацию, отказавшись от грубой силы. Зато неудобства и даже опасности таких дверей (послушайте, что об этом говорят, например, пожарные) остались надолго.

Недавно мне случилось услышать от профессиональных педагогов термин «сопротивление среды» – это тот порог знаний и умений, который приходится преодолевать, чтобы освоить какую-то операцию. Например, при освоении ручного письма на бумаге сопротивление среды весьма велико, и клавиатурное письмо в этом отношении сильно выигрывает. Но когда мы переходим от простых действий по набору буковок на клавиатуре к оформлению написанного в виде законченного текста в электронном виде, сопротивление среды резко возрастает – обучаемому приходится осваивать множество понятий, аналогий которым в окружающем мире он не находит. Файл, папка, диск, формат, текстовый редактор, загрузка программы – все это весьма абстрактные понятия, по сложности их освоения недалеко ушедшие от некоторых областей высшей математики.

Но и это еще полбеды – ожидаемый переход от «цифровых мигрантов» к «цифровым аборигенам» все расставит по местам. И «мигрантам», которых пока еще абсолютное большинство, при надлежащем старании и тренировке можно если и не понять, как там все работает, то вызубрить наизусть основные приемы обращения с такими вещами – по моим наблюдениям, большинство компьютерных пользователей так и поступают.

Беда начинается тогда, когда ситуация выходит за рамки стандартных рецептов. Причем нестандартные проблемы могут возникнуть по множеству причин, которые почти не зависят от того, насколько аккуратен пользователь и насколько он соблюдает рекомендации. Вы можете обложиться антивирусами и сетевыми экранами, тщательно загружать все обновления и соблюдать рекомендации, а потом все-таки в один прекрасный день обнаружить, что компьютер неработоспособен. Приглашенный гуру чешет в голове и отказывается понять, в чем дело. Ладно, после долгих мучений вы справились с этой конкретной проблемой. Можно ли быть уверенным, что она не возникнет снова через год-другой? К тому времени вы уже забудете, что именно надо делать, и все мучения повторятся с начала.

Решения большинства таких проблем можно найти в Интернете: в многочисленных «ответах на часто задаваемые вопросы» (FAQ), на тематических форумах и сайтах. Но никто не гарантирует, что найденные там решения действительно работают, и что они оптимальные по количеству затраченных усилий. Самое распространенную несуразность, которую там можно встретить, – предложение сразу залезть в реестр Windows. В подавляющем большинстве случаев действия с реестром можно выполнить другим способом, что намного быстрее и безопаснее – хотя, конечно, есть и случаи, когда без прямой правки реестра не обойтись.

Часть I

Аппаратные средства персональных компьютеров

Глава 1.

Начинка компьютера. Особенности мобильных компьютеров

Глава 2.

Мультимедиа

Глава 3.

Компьютерные порты

Глава 4.

Сменные носители

Глава 1

Начинка компьютера. Особенности мобильных компьютеров

В мире первых персональных компьютеров, приблизительно до рубежа тысячелетия, было жить очень просто – существовало вполне счетное количество разновидностей процессоров, имевших четкие различия по характеристикам. Если «чайник» оказывался перед необходимостью выбора, то срабатывал простейший критерий тактовой частоты – понятно, что 486DX с частотой 33 МГц будет работать медленнее, чем 486DX4 с частотой 120 МГц. Мало кого волновали другие различия между этими моделями – в частности, производительность разных моделей 80486 могла различаться в разы даже при одной и той же тактовой частоте, но на практике никто особенно не обращал на это внимания – производительность всей системы оставалась примерно на том же уровне, и возможности тоже были примерно одинаковыми.

Где-то к середине 2000-х годов положение резко изменилось. Сейчас число одновременно выпускающихся только основными производителями (Intel и AMD) моделей процессоров со всеми модификациями – сотни разновидностей, и в них легко запутается даже знаток. Производители достигли физического порога увеличения тактовой частоты – она остановилась примерно на уровне 3-х с лишним гигагерц, и этот критерий перестал быть определяющим. Обратите внимание: при частоте 3 ГГц за время одного такта сигнал, скорость которого, между прочим, равна скорости света, проходит всего 10 сантиметров! Это вызывает определенные сложности при проектировании системных плат – при различной длине проводников сигналы по разным линиям будут «разъезжаться» по времени. Это заставило пересмотреть многие традиционные принципы построения компьютерных систем – в частности, повсеместный переход на последовательные интерфейсы взамен параллельных, из-за чего пришлось практически обновлять весь парк жестких дисков и видеокарт.

Множество достаточно производительных систем, предлагаемых сейчас торговлей, имеют тактовую частоту намного ниже практически достижимого порога. Скорость работы компьютеров, наконец, стала определяться не тактовой частотой, а организацией обмена информацией и различными нововведениями в этой области, подтягивающими узкие места. В результате компьютер производства 2003 года может отставать по производительности от компьютера производства 2010 года с той же тактовой частотой процессора (и даже с тем же по видимости типом процессора) в разы.

С другой стороны, производители обнаружили, что такая высокая производительность требуется вовсе не всегда – большинство практических задач совсем не предполагают никаких экстремальных расчетов, и с ними могут справиться вполне рядовые системы. Не то, чтобы задач, требующих повышенной производительности, вообще не существовало – просто ее повышение на 30 % и даже в два раза проблем не решает. Примером могут служить интеллектуальные функции машин – например, нет сомнений, что проблему машинного языкового перевода решить можно. Но вычислительную мощность, которая для этого потребуется, можно оценить на примере родственной задачи – компьютер «Ватсон», выигравший в 2011 году американскую телевикторину Jeopardy (в России эта программа называется «Своя игра»), по вычислительной мощности входит в сотню самых производительных суперкомпьютеров мира. Да, его научили «понимать» запросы на естественном языке практически без ограничений, распознавать юмор, учитывать социокультурный контекст, что очень важно как раз в случае перевода с одного языка на другой. Но даже довольно ограниченный интеллект в рамках такой определенной задачи потребовал почти трех тысяч процессорных ядер и 16 терабайт памяти – и, не забудем, четырех лет на разработку уникального программного обеспечения.

Возможности «Ватсон» в сотни раз превышают возможности современных настольных машин, и чтобы их расширить, производителям придется обойти еще не один технический порог, подобный уже возникшему физическому ограничению по тактовой частоте. Когда-нибудь они это, без сомнения, сделают или найдут другие пути решения проблемы экстремальных задач (например, «облачные вычисления»), а пока приходится обходиться тем, что имеется в наличии.

1.1. Выбор процессора для персональных компьютеров

С уверенностью можно сказать, что в большинстве случаев для рядовых пользователей выбор центрального процессора сегодня решающего значения не имеет – мощность компьютера даже со слабым процессором все равно позволит выполнять почти любые практические задачи. Собственно, выбирать процессор сегодня приходится лишь в одном случае – при покупке нового настольного компьютера (десктопа). Ноутбуки и тем более другие мобильные устройства (нетбуки, планшеты или смартфоны) по критерию процессора, как и вообще аппаратной платформы в целом, выбирать бессмысленно – их выбирают по функциональности и цене. В крайнем случае можно озаботиться качеством дисплея.

А в случае десктопа действительно приходится начинать выбор именно с

процессора.

Как и когда-то, такой выбор обуславливает производительность компьютера в целом. Только теперь не столько потому, что такой-то процессор медленнее или быстрее другого, сколько из-за того, что выбор процессора влечет за собой выбор управляющего чипсета, а следовательно, и типа материнской платы, системы охлаждения и многих других мелочей, а именно от этого сегодня зависит функциональность и производительность компьютера в целом. Так, контроллер доступа к памяти в современных системах в ряде случаев встроен в процессор (обычно это процессоры, поддерживающие 64-разрядные вычисления), и потому, выбрав процессор, вы оказываетесь жестко привязаны к определенному типу памяти.

Особо следует поговорить о выборе между 32-разрядными и 64-разрядными системами. Большинство современных процессоров поддерживает 64-разрядные вычисления (включая даже почти все модификации самого простого и дешевого процессора Intel под названием Atom, предназначенного в основном для мобильных компьютеров). Названия таких процессоров и чипсетов к ним дополнительно включают в себя цифру 64: «Intel 64», «amd64», «x86-64», «x64», «EM64T» – разные названия одной и той же технологии.

На практике преимущество 64-разрядных систем заключается не в собственно разрядности вычислений (это может и не дать заметного эффекта), а в том, что системы с такой разрядностью могут поддерживать гораздо больший объем памяти. Сравните – обычная 32-разрядная Windows XP поддерживает физическую память максимум в 4 гигабайта, из которых реально работает около 3,5. 64-разрядная Windows XP поддерживает уже 16 Гбайт, а Windows 7 – до 192 Гбайт (в зависимости от редакции), что фактически равно объему современных жестких дисков.

Но также понятно, что для достижения реального эффекта в таких системах нужно еще много условий. Нужны не просто соответствующие драйверы, которые

1.2. Выбор материнской платы

Как мы уже говорили, выбор процессора обуславливает тип чипсета и, иногда, тип памяти.

Чипсет

(набор системной логики) – это набор микросхем, поддерживающий какие-то определенные типы процессоров. Но предлагаемое разнообразие чипсетов для одного и того же процессора все-таки достаточно велико, чтобы запутаться (хотя сделать роковую ошибку и трудно). Мало того, на практике на основе выбранного чипсета можно получить огромное количество самых разнообразных конфигураций материнских плат от разных производителей. И вот тут можно крупно промахнуться, сэкономив там, где экономить совсем не следует.

Чипсеты для процессоров Intel выпускает сама Intel, а также компании VIA, SIS и известный производитель видеокарт NVIDIA. Компания AMD сама довольно долго не выпускала чисеты для своих процессоров, но в 2006 году приобрела главного конкурента NVIDIA – компанию ATI, и также вышла на рынок чипсетов. Кроме самой AMD, чипсеты для ее процессоров выпускают те же NVIDIA, VIA и SIS. Для процессоров Intel и AMD требуются разные чипсеты, хотя иногда они могут носить почти одинаковые названия (например, у компании NVIDIA: nForce 750a для AMD, nForce 750i – для Intel). Соответственно, на материнскую плату, выпущенную для процессоров Intel, нельзя установить процессор от AMD, и наоборот.

Перечислить все возможные конфигурации материнских плат и дать конкретные рекомендации по их выбору еще труднее, чем в случае процессоров. В отличие от производства и разработки чипсетов – весьма сложного занятия, требующего высокой технологической культуры, опытных кадров и дорогих производств, – свои материнские платы может производить фактически каждый. Интернет-издание iXBT приводит список из почти полутора сотен компаний-производителей, включая и отечественные (например, компанию «Формоза»). Среди самых популярных в нашей стране можно назвать ASUS, Chaintech, Gigabyte, Microstar (MSI), Foxconn и саму Intel. В любом случае, выбирая плату, прежде всего стоит выяснить, есть ли у данного производителя в России достаточно развитая система фирменного обслуживания.

Для облегчения выбора кратко опишем, на что стоит обращать внимание при выборе материнской платы, кроме поддерживаемого типа процессора. Любой чипсет состоит из двух микросхем, иногда объединяемых в единый системный контроллер-концентратор, или, по-английски, System Controller Hub (SCH). Первая микросхема традиционно носит название

Южный мост

1.3. Правила подключения к компьютеру внешних устройств

Несколько слов о правилах подключения устройств к компьютеру. Неверно, что перед подсоединением какого-либо разъема компьютер следует обязательно выключать – зачем тогда придумывали такие вещи, как

горячее подключение

(Plug-and-Play, PnP)? В общем случае через любой компьютерный порт оборудование можно подключать «горячим способом», если соблюдать определенные меры предосторожности. Заметим, что эти меры одинаково существенны и для современных PnP-интерфейсов, и в случае старинного RS-232 – известны случаи, когда при несчастливом совпадении ряда обстоятельств выходил из строя даже супернадежный и «несгораемый» порт FireWare.

Самое главное требование к соединяемым устройствам: потенциалы «общего провода» («земли», корпуса) у обоих соединяемых устройств должны быть выровнены заранее. При подключении по любому интерфейсу это происходит автоматически в момент соединения, но беда наступает тогда, когда до подключения потенциалы разные. Тогда в момент подключения они выравниваются скачком, и хорошо, если это происходит через металлические обрамления разъемов и оплетку кабеля. По сути все современные интерфейсы и рассчитаны по своей конструкции на такой случай (обрамления разъемов входят в контакт первыми, затем контакты питания, затем только все остальные), но не факт, что до выравнивания потенциалов сигнальные контакты не успеют соприкоснуться. А это значит, что через них потечет большой ток, на который нежные микросхемы, изготовленные с технологическими нормами в десятки нанометров, совершенно не рассчитаны – в результате порт выгорает гарантированно.

Выровнять потенциалы корпусов у соединяемых устройств на самом деле очень просто – надо всегда их включать в сеть проводом, имеющим вилку с третьим заземляющим контактом (причем этот контакт должен не болтаться в воздухе, а быть надежно соединен с корпусом прибора). Но одного этого, конечно, недостаточно – еще надо, чтобы розетки, в которые включаются устройства, были также снабжены заземляющими контактами, надежно соединенными между собой. В идеале эти заземляющие контакты также должны быть подсоединены и к настоящему заземлению, но это необязательно – достаточно лишь, как это называют в официальной документации, потенциаловыравнивающего проводника. Такой проводник всегда связывает между собой розетки в офисных удлинителях типа «Пилот» (рис. 1.3).

Рис. 1.3. Удлинитель типа «Пилот» – надежный способ защиты от выгорания компьютерных портов

1.4. Корпуса, охлаждение и общая конфигурация

Одно из самых неприятных свойств современных настольных компьютеров и ноутбуков – сопровождающий их работу шум вентиляторов. У ноутбуков тут ничего сделать невозможно – разве только обратить внимание на «шумность» при покупке модели. А для настольных компьютеров (десктопов) правильно сформулированная задача по выбору корпуса, блока питания (который выбирается вместе с корпусом) и систем охлаждения звучит так – обеспечить минимальный шум при достаточном охлаждении.

И уровень шума, и эффективность охлаждения зависят от большого количества параметров: и от конструкции корпуса, и от его размеров, и от «фирменности» радиаторов и вентиляторов, и от времени (со временем разбалтываются опоры подшипников в вентиляторах, а каналы радиатора забиваются пылью), и от того, насколько греются тепловыделяющие компоненты. Скажем, в обычном режиме работы (без обработки трехмерной графики), вентилятор на современной видеокарте, если она не экстремальной мощности, оказывается не очень-то и нужен мне удавалось годами работать с видеокартой, у которой вентилятор был сознательно физически отключен. Но всем рекомендовать такой прием с целью снижения шума, конечно, было бы слишком смело – на всякий случай вентилятор должен работать.

1.4.1. Подбор блока питания

При подборе блока питания учтите, что в первой половине 2000-х (примерно с появлением материнских плат с шиной PCI-Express) произошла смена стандартов, и блок питания от компьютера 2000 года с 20-контактным разъемом не подойдет к современной материнской плате, где контактов 24 (дополнительные четыре контакта от блока питания часто идут отдельным жгутом). Кроме того, были изменены требования по мощности отдельных линий (потому решить проблему простым размножением существующих линий не удастся), а с появлением SATA-дисков еще и изменена конструкция разъемов питания жестких дисков. Потому от старого компьютера при модернизации можно будет оставить разве что корпус, но блок питания придется сменить.

Начнем с расчета необходимой мощности блока питания. Грубая рекомендация звучит так – мощность блока питания среднего офисного или домашнего компьютера должна составлять 300–350 Вт. Не будет большим излишеством выбрать и 400-ваттный блок. Более мощные блоки – для экстремальных игровых конфигураций.

Для тех, кто привык все считать досконально, на множестве сайтов в Интернете есть специальные калькуляторы, как онлайновые, так и в виде отдельной программы. Чтобы их найти, достаточно в «Яндексе» или Google набрать запрос: расчет мощности блока питания. Посчитав с помощью такого калькулятора требуемую мощность для вашей системы, вы, возможно, будете удивлены – в типовом случае вы получите цифру на уровне примерно 120–150 Вт. Откуда тогда требование 350ваттного блока питания? Просто из принципа: «запас карман не тянет» – 300ваттный блок не отличается по габаритам от 200-ваттного и обойдется практически в ту же сумму. При этом надежность системы окажется намного выше, не придется думать о смене блока при модернизации, а если блок позволяет управлять оборотами вентилятора, то их можно еще дополнительно понизить, снизив тем самым и уровень шума.

Из практического опыта следует, что надежность блока питания мало зависит от степени его «фирменности» – если это только не совсем уж какой-нибудь корявый «но-нейм», спаянный на коленке «в трущобах Шанхая». А вот качество и долговечность установленного вентилятора, как и возможность управления им, как раз очень зависит от «брендовости» производителя.

Трудность состоит в том, что для получения заведомо гарантированного качества вам придется заплатить заметно больше среднего – так, блок питания Zalman на 400 Вт обойдется в сумму, приближающуюся к 2 тысячам рублей, тогда как цена «обычного» блока такой мощности, ничуть не хуже «залманского» по всем остальным параметрам, вряд ли будет более рублей 500–700.

1.4.2. Выбор источника бесперебойного питания

С мощностью блока питания связан выбор источника бесперебойного питания (ИБП, или, по-английски, UPS). Учтите, что мощность ИБП всегда указывается в вольт-амперах (ВА), и эта цифра примерно на четверть-треть выше реальной отдаваемой мощности в ваттах. То есть минимальная мощность ИБП для блока питания 400 Вт должна составлять 500 ВА. Наилучшим выбором для домашнего компьютера будет ИБП мощностью около 700 ВА – в него вы сможете воткнуть и монитор, и модем со сканером и принтером. Более мощные ИБП относятся уже к профессиональным, и стоят обычно заметно дороже.

1.4.3. Вентиляторы и температура внутри корпуса

Вентиляторы для процессоров, к сожалению, не предполагают такого выбора размеров, как в блоках питания – там размер задан конструкцией радиатора. Потому если вы особо чувствительны к шуму, то тут не обойтись без покупки фирменной конструкции, причем желательно сразу в сборе с радиатором. Здесь тоже применимо правило – чем больше размеры вентилятора, тем лучше. Хорошо, если материнская плата позволяет осуществлять регулировку числа оборотов – тогда, постепенно их снижая, можно найти оптимум, когда температура процессора еще не повышается до критической (примерно 50 градусов), а обороты уже достаточно малы. Размеры корпусного вентилятора обычно, к сожалению, нередко заданы еще более жестко (обычный размер: 92x92 мм), потому там тем более приходится выбирать самую фирменную конструкцию или изначально выбирать корпус с большим вентилятором 120 мм.

Программы для измерения температуры процессора и материнской платы и, если это возможно, для регулировки оборотов вентиляторов, должны найтись на диске, прилагаемом к материнской плате. Но опыт показал, что такие утилиты обычно избыточны по функциональности, слишком сложны и нестабильны. Потому лучше воспользоваться одной из сторонних программ. Есть много подобных продуктов, и платных и бесплатных, и их нужно тщательно выбирать. Из бесплатных для чистого контроля параметров я порекомендую HWMonitor – очень простую программу, состоящую из единственного исполняемого файла, и не требующую установки, но весьма информативную (рис. 1.5) – как видите, он показывает даже температуру жесткого диска (см. раздел под заголовком

ST3500630AS

), правда, только одного из двух, имеющихся в компьютере. Кроме того, программа показывает минимальное и максимальное значение за время, пока она запущена. При желании текущие показания можно сохранить в файл и сравнить их, например, с тем, что было до установки нового вентилятора. Скачать последнюю версию HWMonitor можно с сайта разработчиков

cpuid.com

.

Рис. 1.5. Контроль параметров настольного компьютера с помощью программы HWMonitor

1.4.4. Общая конфигурация корпуса

При выборе общей конфигурации корпуса следует исходить из следующих соображений. Как минимум, стоит рассчитывать на два отдельных жестких диска в стандарте 3,5 дюйма: как мы еще узнаем, так надежнее – на втором хранится резервная копия основного. 3,5-дюймовый диск будет греться гораздо меньше миниатюрного 2,5-дюймового и, к тому же, окажется заметно дешевле. Неплохо, если эти диски будут разнесены подальше друг от друга – с одним пустым отсеком между ними. Обязательно потребуется и оптический привод, притом достаточно больших габаритов (под пятидюймовый отсек) – они удобнее и надежнее миниатюрных, типа ноутбучных.

Наконец, не мешает иметь на месте бывшего флопии-привода кардридер – набор гнезд под различные типы флэш-карт. Если такое вам не требуется, то на этом месте удобно разместить панель с дополнительными аудиогнездами и USB-портами.

В свободный пятидюймовый или трехдюймовый отсек попробуйте установить панель с регуляторами скорости вращения вентиляторов – она может показаться выпендрежной игрушкой, но на самом деле это ужасно удобная штука, если вы чувствительны к уровню шума. С ней уже можно не обращать внимание на функциональность материнской платы в отношении регулировки оборотов вентиляторов – так, панель Scythe Kaze Master Pro 3.5 стоимостью меньше двух тыс. рублей позволяет управлять скоростью вращения до четырех вентиляторов (вплоть до полной их остановки), непрерывно контролируя на дисплее температуру в соответствующих точках.

В основном с температурными требованиями и связан выбор размеров корпуса, но может так случиться, сама компонуемая конфигурация уже установит достаточный размер. Очень заманчиво иметь миниатюрный корпус, вроде модного формата Mini-TTX (собственно корпус с размерами 215x230x65, а плата для него – 170x170), однако в такие габариты нормальный компьютер просто не влезет. Но даже если выбранные вами компоненты без натяга упаковываются в miniTower, то выберите все-таки корпус на размер больше – типоразмера midiTower. Там будет больше свободного места и лучше вентиляция, а значит, надежнее работа компонентов и больше возможностей для снижения шума.

Глава 2

Мультимедиа

Точно так же, как и в случае с процессором, в наше время выбор видеокарты в 99 % случаев не имеет решающего значения. Еще в начале 2000-х годов это было не так – дешевые видеокарты могли не потянуть управление монитором высокого разрешения. К тому же на тогдашних мониторах, построенных на электроннолучевых трубках, очень большое значение имела максимальная частота смены кадров, которую могла обеспечить видеокарта. При частоте ниже 70–75 Гц глаза начинали быстро уставать, а слабые видеокарты могли не потянуть такую частоту при максимально возможных разрешениях экрана.

На ЖК-мониторах частота смены кадров не имеет значения (они не мерцают, и потому не действуют на глаза) и обычно всегда установлена на стандартном значении 60 Гц. Потому условия работы видеокарт даже упростились, и сейчас почти любая видеокарта поддержит почти любой монитор. Так на что же стоит ориентироваться при выборе видеокарты?

2.1. Выбор видеокарты

Выбору видеокарты посвящены многостраничные обзоры на специализированных сайтах, в которых ничего существенного не содержится. Дело в том, что большинство отличий современных видеокарт друг от друга сказываются лишь в самых «тяжелых» условиях – в полноэкранных трехмерных компьютерных играх. Причем наличие слабой видеокарты еще не означает, что эти игры не заработают вовсе – просто ограничится число кадров в секунду и, возможно, максимальное разрешение экрана, при котором игра запустится.

Если исключить такие экстремальные условия, то выбор видеокарты значительно упрощается – двухмерное (2D) изображение потянут практически все имеющиеся на рынке образцы. То есть если максимум графических задач, которые вы выполняете на компьютере, сводится к обработке плоских изображений (неважно, в Photoshop или AutoCAD), то много думать о приобретении видеокарты не придется. А просмотр и обработка видео на компьютере предъявляет даже меньшие требования, чем обработка больших плоских картинок – конечно, наличие аппаратного декодирования популярных форматов видео несколько ускоряет процесс, но это больше проявляется в меньшей загруженности центрального процессора (т. е. способствует выполнению параллельных задач), чем служит каким-то принципиальным усовершенствованием.

Следует обратить отдельное внимание на максимальное разрешение, которое обеспечит видеокарта при работе через различные выходы. Это особенно важно при наличии большого монитора, и проверить их совместимость никогда не мешает. Для подключения монитора более чем 1600x1200 (или широкоэкранного 1920x1080) нужен специальный двухканальный DVI-разъем (Dual-Link). Если видеокарта имеет два таких разъема (для подключения двух мониторов), то каждый из них должен потянуть указанное в характеристиках монитора максимальное разрешение (например, 2560x1600).

Многие видеокарты имеют два выхода, но один из них цифровой DVI, а другой – аналоговый VGA (иногда еще присутствует выход на телевизор по стандарту HDMI или более простому S-Video). Как правило, аналоговый VGA-выход имеет при этом меньшее максимальное разрешение, чем цифровой (напр. 2048x1536). При необходимости подключения двух мониторов в любом случае лучше выбрать вариант видеокарты с двумя одинаковыми цифровыми разъемами DVI. Как мы уже говорили, на частоту кадровой развертки при наличии цифрового монитора можно не обращать внимания – как правило, она для всех таких карт находится на уровне 60 Гц, и этого оказывается достаточно.

Следует также обратить внимание на количество видеопамяти, которое для 19-дюймовых мониторов 1280x1024 должно быть не меньше 64 Мбайт (128 Мбайт – для разрешений 1920x1200), а для многомониторных конфигураций требуемый объем видеопамяти должен быть умножен на количество мониторов. Современных видеокарт, имеющих меньшие, чем 64 Мбайт, объемы памяти, в природе просто не существует, а для встроенных объем используемой памяти обычно устанавливается через BIOS

2.2. Дисплеи и мониторы

Прежде всего о терминологии.

Дисплей

– это то, что демонстрирует информацию в наглядной форме. Информация может быть в текстовой форме (текстовый дисплей), в виде картинок (графический дисплей), в виде цифр или отдельных знаков (цифровой и знакосинтезирующий диплей), в виде положения стрелки или длины светящегося столбика (стрелочный или столбчатый дисплей, часто их называют индикаторами).

Текстовый или графический дисплей может входить в состав отдельного показывающего устройства, которое тогда называют

монитором

. То есть у настольного компьютера (не моноблока) – монитор, а у ноутбука или планшета – дисплей. Часто синонимом дисплея выступает слово «экран». Можно сказать «на экране монитора» или «на дисплее монитора» – оба выражения обозначают одно и то же.

Разобравшись таким образом с терминологией, перейдем к технологиям. Технологий получения изображения очень много, количество только самых ходовых из реально применяемых приближается к десятку. Но практически все выпускаемые сегодня компьютерные дисплеи (и те, что входят в состав мониторов, и те, что устанавливаются в мобильные устройства) основаны на наиболее хорошо проработанной жидкокристаллической технологии (ЖК, или, по-английски, LCD). Исключение представляют некоторые небольшие дисплеи смартфонов или планшетов, изготовленные на основе светодиодов (LED-дисплеи), а также плазменные телевизоры.

С LED-дисплеями не следует путать ЖК-дисплеи со светодиодной подсветкой, которые тоже часто называют сокращением LED. В них само изображение формируется на основе обычного ЖК-экрана, а светодиоды лишь служат для подсветки, вместо флуоресцентных трубчатых ламп в обычных дисплеях. На основе LED-подсветки делаются и компьютерные мониторы, и телевизоры. При выборе телевизора LED-подсветку стоит предпочесть практически во всех случаях (т. к. с ее помощью достигается более высокое значение контраста), кроме разве что соображений стоимости – такие телевизоры обычно дороже. Для компьютерных мониторов, в которых контраст не играет решающего значения (по крайней мере, пока вы не захотите превратить их только в устройство для просмотра фильмов), выбирать монитор только из-за LED-подсветки не стоит.

Для мониторов куда большее значение имеет цветопередача, зависящая от технологии самой ЖК-матрицы. Основных таких технологий три: TN (или TN+film), PVA (и ее менее популярная разновидность под названием MVA) и IPS – есть также несколько модификаций каждой из них. Чтобы не путаться в терминах, учтите, что сокращение TFT (Thin-Film Transistor, тонкопленочный транзистор) ничего не говорит о качестве матрицы, поскольку все ЖК-матрицы являются TFT-матрицами, и термин «TFT-монитор» по сути можно считать просто синонимом «ЖК-монитора».

2.3. Калибровка монитора

Во-первых, насколько она нужна? Если вы на своем мониторе только набираете текст и путешествуете по веб-сайтам, то калибровка монитора может и не потребоваться. Желательность ее проявляется тогда, когда вы начинаете обмениваться с друзьями (или с учреждениями, вроде редакций СМИ) всяческими графическими материалами, которые в идеале должны одинаково отображаться на всех экранах. Самый простой такой случай – размещение фотографий на фотогалереях в Сети. Нехорошо, если они у вас выглядят нормально, а у всех других будут отдавать в зелень или окажутся слишком темными. Большинство мониторов не потребуют никакой коррекции, но стоит, как минимум, это проверить.

Во-вторых, насколько возможна калибровка монитора в домашних условиях? Это вопрос очень неоднозначный, и ответ зависит и от монитора, и от видеокарты, и от квалификации пользователя. Полная калибровка и выстраивание объективно полученного цветового профиля – дело сложное и теоретически, и практически, требующее специального недешевого оборудования, знаний, терпения и времени. Кроме того, калибровка только одного монитора – дело в значительной степени бессмысленное, если одновременно не откалибровать и сканер, и принтер, но эти процессы любителю практически недоступны или, как минимум, дороговаты. Отсюда вытекает такой ответ на поставленный вопрос: нет, полную калибровку в домашних условиях провести неквалифицированному пользователю практически невозможно.

А что можно? Можно максимально подогнать под желаемые значения яркость и контраст, установить точку белого, баланс цветов (чтобы оттенки серого были серыми, а не цветными).

2.4. Проблемы установки качественной аудиосистемы и ее необходимость

Еще недавно выбирать аудиокарту приходилось, исходя из имеющихся потребностей, толщины кошелька и возможностей к приобретению всего необходимого внешнего оборудования. Сейчас все встроенные в материнскую плату аудиокарты практически сравнялись по возможностям, стали обязательным оборудованием, и отдельные аудиокарты почти исчезли из продажи. Но выбирать в целом аудиосистему все равно приходится, потому что сама по себе аудиокарта, какая бы она ни была, еще не обеспечивает качественного звучания. Его можно достичь только в комплексе по всей цепочке: от записи на носитель, до колонок и даже дальше – до акустических особенностей помещения.

Дело построения и балансирования подобной системы очень непростое, недешевое и требует специальных знаний. Если в каком-то звене будет допущена слабина (например, вы собираетесь проигрывать MP3-записи, скачанные из Интернета, или соседи вам не разрешают включать колонки на достаточную громкость), то и все остальные звенья окажутся излишними – деньги и усилия будут потрачены зазря. Потому сначала стоит поговорить о том, в каких случаях стоит стремиться к достижению наивысших характеристик аудиосистемы, а в каких – это нецелесообразно или просто невозможно.

Известный автор и исполнитель бардовской песни Сергей Никитин как-то заметил, что один его друг-поэт вполне может слушать записи песен из радиоточки. Таким сравнением он хотел, видимо, показать исключительную непритязательность музыкальных вкусов своего друга. Суть, однако, в том, что огромное большинство потребителей музыки вполне находятся на том же уровне – им по большому счету все равно, на какой аппаратуре все это звучит. Никто, конечно, не будет отказываться прослушать запись или звуковое сопровождение к фильму на новейшей многоканальной аппаратуре, но в быту нас в большинстве сопровождают звуковые устройства: автомагнитолы, карманные плееры, компьютерные колонки, иногда встроенные в монитор, – которые по своему качеству недалеко ушли от этой самой радиоточки. Приобретать, устанавливать и конфигурировать современную звуковую аппаратуру – недешевое и хлопотное занятие, к тому же требующее достаточно физического места.

Есть и еще одно обстоятельство. В качестве современных городских и загородных жилищ, по крайней мере в достаточно развитых странах, человечество сделало огромный скачок вперед. Еще лет сто-сто пятьдесят назад такие блага цивилизации, как центральное отопление, канализация и даже водопровод были абсолютно недоступны большинству проживающих в Европе или Америке. Количество жилой площади на душу населения даже в развитых странах было минимальным, и лишь в богатой Америке в первой половине XX века постепенно стал устанавливаться обычай проживать каждому в отдельной комнате.

С тех пор строительные технологии резко подешевели, появилась строительная индустрия и упала доля медленного ручного труда, потому стандарты качества жилья постепенно выросли. Но в области звукоизоляции современные жилища не могут даже близко сравниться с каким-нибудь средневековым замком. В нем люди непрестанно мерзли и болели, спали вповалку в общем зале на соломе, но вот со звукоизоляцией там все было в порядке, хотя специально об этом едва ли кто заботился. Не приходит в голову задуматься об этом и современным строителям. А ведь городские бетонные коробки в этом смысле куда хуже, чем даже кирпичные дома ручной постройки XIX и начала ХХ века – бетонные перекрытия являются отличным каналом для распространения звука, особенно низких частот.

Глава 3

Компьютерные порты

Основными компонентами компьютера, как известно, являются процессор и память. Такая двухкомпонентная система вполне самодостаточна, однако она представляет собой черный ящик в чистом виде и способна работать только сама на себя. Как минимум, к ней придется пристроить устройства ввода/вывода: клавиатуру, экран, принтер, дисковые накопители, оптические приводы или хотя бы флоппи-дисководы. Тогда получится полноценный компьютер, который получает данные и команды из внешнего мира и выдает на-гора результаты своей деятельности. При этом можно указанные компоненты намертво встроить в систему – как и поступал Стив Возняк со своим паяльником, конструируя первые массовые ПК Apple I в конце 70-х годов прошлого века. А можно придумать некий

интерфейс,

рассказать всем, как он устроен, и тогда любой сможет подключать к нему любые устройства, лишь бы они были снабжены нужными разъемами-соединителями и соблюдали договоренности по поводу электрических характеристик сигналов и характера обмена данными –

протоколы.

По этому пути пошли создатели другого первенца компьютеростроения – IBM PC, взяв за основу так называемую

открытую архитектуру.

Некоторые из внешних устройств компьютера: дисплей и видеоадаптер, аудиосистему, жесткие диски – мы уже рассмотрели в предыдущих главах. Здесь мы остановимся на компьютерных портах для подключения внешних устройств.

3.1. Какие бывают порты

К компьютерным портам (аппаратным интерфейсам) причисляют как специализированные интерфейсы (например, сетевые, а также служащие для подключения таких устройств, как мониторы, аудиосистемы или беспроводные мыши и клавиатуры), так и интерфейсы общего назначения, к которым потенциально можно подключить любое устройство. К проводным интерфейсам общего назначения относятся порты COM, LPT, PS/2, GAME-порт, FireWare и USB.

Сетевые интерфейсы, в том числе беспроводные (Wi-Fi), мы рассмотрим в последующих главах. Из беспроводных интерфейсов общего назначения наиболее универсальным является Bluetooth – как и Wi-Fi, он чаще используется для связи между компьютерами (или между компьютерами и мобильными устройствами), и мы его рассмотрим в этой главе отдельно. Известен еще интерфейс SCSI («сказёвый», как его любят обзывать компьютероманы), но на нем я не буду останавливаться – можно считать, что он похоронен окончательно и бесповоротно и остался лишь как основа некоторых современных интерфейсов. Разъем шины PCI-Express тоже может быть использован в качестве внешнего порта, но пока еще таких устройств немного. Всякую экзотику, вроде специального разъема для подключения MIDI-устройств, мы тоже рассматривать не будем, как и специфичные для ноутбуков интерфейсы PCMCIA или ExpressCard, – ограничимся стандартными портами, причем рассмотрим их приблизительно в той последовательности, в которой они появлялись на свет.

Чтобы наглядно представить размещение и внешний вид упомянутых далее интерфейсов на задней панели современного настольного компьютера, можно обратиться к рис. 1.2 в

главе 1 «Начинка компьютера. Особенности мобильных компьютеров».

COM

СОМ-порт (от слова «коммуникационный»), или serial («последовательный») порт – отчасти ошибочно еще называют портом RS-232. Правильно сказать так: COM-порт передает данные, основываясь на стандарте последовательного интерфейса RS-232

[5]

, который, кроме собственно протокола передачи и электрических параметров, стандартизирует разъем DB-25. Позднее, специально для ПК, выпустили стандарт RS-574, установивший всем знакомый разъем DB-9, теперь ставший фактическим стандартом для всей отрасли. Есть и еще один термин, который имеет непосредственное отношение к этой теме: UART (Universal Asynchronous Receiver-Transmitter, универсальный асинхронный приемопередатчик). UART есть составная часть СОМ-порта, его основа, то устройство, которое собственно передает и принимает данные и к которому адресуются пользовательские программы. Кроме UART, в СОМ-порт входит преобразователь электрических уровней UART/RS-232. Вообще-то на микросхемах UART можно построить линии передачи по различным протоколам: RS-422 (скоростному), RS-485 (повышенной надежности), даже USB. Рассматриваемый RS-232 – самый простой из них.

Стандарт RS-232 – один из самых древних протоколов передачи данных между устройствами, он был утвержден еще в 1969 году, и к компьютерам (тем более ПК) тогда еще не имел никакого отношения. Это очень простой в реализации, дешевый, неприхотливый и достаточно надежный способ соединения двух устройств. Существует несколько стандартов RS-232, различающихся добавленной буквой: RS-232C, RS-232D, RS-232E и пр. Вдаваться в различия между ними нет никакого смысла – они являются лишь последовательным усовершенствованием и детализацией технических особенностей одного и того же устройства. Заметим лишь для справки, что все современные порты поддерживают спецификации RS-232С или RS-232E.

Давайте немного подробнее остановимся на том, как работает RS-232 – это хорошо иллюстрируют не совсем очевидные принципы передачи целого набора битов всего по одному проводу. Идея заключается в посылке последовательных импульсов, каждый из которых может означать 0 или 1. Если в определенные (заранее известные) моменты времени считывать состояние линии, то можно восстановить то, что было послано. Однако эта очевидная мысль наталкивается на определенные трудности.

Для приемника и передатчика, связанных между собой тремя проводами («земля» и два сигнальных провода: «туда» и «обратно»), приходится задавать скорость передачи и приема, которая должна быть одинакова для устройств на обеих концах линии. Эти скорости стандартизированы и выбираются из ряда от 110 до 115200 битов в секунду. Проблема состоит в том, что приемник и передатчик – это физически совершенно разные системы, и скорости эти для них не могут быть строго одинаковыми (из-за разброса параметров тактовых генераторов), и даже если их каким-то образом синхронизировать в начале, то они в любом случае быстро «разъедутся». Поэтому в RS-232 придумали передачу каждого байта сопровождать начальным (стартовым) битом, который служит для синхронизации. После него идут от пяти до восьми информационных битов (девять – если используется проверка на четность), а затем стоповые биты, которых может быть один, два и более, – предполагается, что за время прохождения всей этой посылки приемник и передатчик по частоте «разойтись» не успеют.

Рисунок 3.1 иллюстрирует работу приемопередатчика RS-232. Стартовый бит передается положительным уровнем напряжения (в данном случае это считается логическим нулем), а стоповый – отрицательным уровнем (логической единицей). Обнаружив изменение уровней с отрицательного на положительный, приемник считает это стартовым битом и с заданными, согласно оговоренной заранее скорости передачи, промежутками времени отсчитывает от него все остальные.

LPT (IEEE 1284)

Мало кто из знатоков вам прямо сразу ответит, как расшифровывается аббревиатура LPT. На самом деле это сокращение от Line Print Terminal (терминал линии печати). Есть и другие версии: Line PrinTer – т. е. «построчный принтер», а некоторые утверждают, что L означает Letter – «буква», т. е. получается «буквенный принтер» (как будто во времена появления этого порта существовали какие-нибудь принтеры, отличные от «буквенных»).

Порт LPT был спроектирован специально для компьютеров и появился в их составе позже, чем COM. В самом первом IBM PC (1981) вообще никаких привычных интерфейсов не было, а в более усовершенствованной модели IBM PC XT (1984) LPT присутствовал лишь в некоторых конфигурациях. Многие первые модели принтеров подключались через СОМ, но это оказалось медленно и неудобно. LPT сразу проектировали так, чтобы обеспечить передачу данных с большими скоростями. Как следует из названия, он предназначался для конкретной задачи – подсоединения принтера, но область его использования оказалась заметно шире.

С LPT тесно связан интерфейс Centronics, название которого относится как к набору сигналов и протоколу взаимодействия, так и к 36-контактному разъему, устанавливаемому на принтерах (рис. 3.4). Со стороны компьютера Centronics никогда не используется, вместо него устанавливается разъем-гнездо DB-25-female («мама» – в отличие от COM-порта, где используется штыревая часть, вилка DB-25-male, «папа»). Все эти разъемы, как и сигналы, были окончательно стандартизированы в международном стандарте IEEE 1284 (1994 г.).

Рис. 3.4. Разъем Centronics на кабеле для подсоединения принтера

PS/2

Этот интерфейс отличается от остальных тем, что имеет сугубо специфическое назначение – для подключения мышей и клавиатур. Мне неизвестны какие-либо другие устройства, которые его используют. Причем и для мыши, и для клавиатуры используются одинаковые 6-контактные разъемы типа MiniDIN, помеченные (после принятия стандарта PC99) цветами: для мыши – бирюзовым, для клавиатуры – сиреневым. С физической точки зрения PS/2 является последовательным портом с отдельной линией синхронизации и еще отличается тем, что имеет вывод +5 В для питания подключенного устройства.

Разъемы PS/2 – почти единственное, что осталось от некогда нашумевшей архитектуры IBM PS/2

[7]

. Первоначально ПК не поддерживали никаких мышей – зачем они в текстовом интерфейсе? Для подключения приходилось использовать специальные адаптеры, устанавливаемые в свободные слоты на плате. Затем распространились последовательные мыши, которые подключались в COM-порт. Отметим не всем очевидную нестандартность этого решения – как мы уже упоминали, разъем COM-порта не имеет специального вывода питания. Поэтому все последовательные мыши питались от одной из сигнальных (дополнительных) линий, которая устанавливалась драйвером в нужное состояние. Мыши разных производителей использовали разные линии для питания и разную полярность напряжения, поэтому драйверы могли быть несовместимыми.

Удивительно, но такое «незаконное» подключение продержалось в качестве стандарта де-факто полтора десятилетия – разрабатывая стандарт АТХ в 1997 году, компания Intel ввела разъемы из давно забытой к тому времени IBM-овской линейки PS/2 в качестве интерфейса для подключения клавиатуры и мыши. Это было наиболее удобным решением, и даже многие современные платы поддерживают такие порты. Преимуществом их стало то, что мышь поддерживается на уровне BIOS (клавиатура, как основное устройство, поддерживалась изначально). Поэтому подключаемые к PS/2 (и, кстати, даже к USB) мыши в современных ПК вполне могут работать и в DOS, без всяких драйверов.

Начиная со стандарта РС98, впрочем, рекомендовалось подключать мышь к порту USB. В РС99 это рекомендовалось уже настоятельно, а COM-порты посоветовали убрать вовсе. В РС2002 вообще была дана однозначная команда – для периферии только USB. Но эта инициатива Intel/Microsoft тогда в значительной мере провалилась и в какой-то мере начинает осуществляться только в настоящее время.

Что же касается PS/2, то мыши и клавиатуры никогда из ПК не вынимаются, и с точки зрения пользователя не всегда ясно, зачем занимать универсальный порт USB, для которого можно придумать и более полезное применение. Мне, например, четырех имеющихся разъемов USB на задней панели не хватает и без того – приходится применять разветвитель, а если бы я еще туда мыши с клавиатурой подключал, мне бы этих разъемов не хватило и на более нужные надобности.

GAME-порт

Назначение игрового контроллера и его интерфейса понятно без пояснений. Он (в стандартной конфигурации) практически не изменился со времен IBM PC AT, разве что стал встраиваться в материнские платы, а не располагаться на отдельной карте (обычно его размещали на платах совместно со «звуковухой» или с контроллером жестких дисков). Он использует такой же, как LPT, тип разъема DB («мама»), только с 15 контактами, так что перепутать невозможно. Стандартный GAME-порт поддерживает два джойстика с двумя кнопками каждый. Встречаются и сдвоенные порты.

GAME-порт имеет выводы питания +5 В (как и PS/2, и USB), причем даже несколько, т. е. к нему можно подключить устройства, собственного питания не имеющие. Но еще интереснее, что у него выводы для подключения координатных преобразователей джойстика (в количестве 4-х штук) представляют собой самые настоящие аналого-цифровые преобразователи, довольно, правда, примитивные. «Официальные» устройства, использующие это свойство игрового порта (кроме, конечно, самих игровых аксессуаров), мне не попадались, но для радиолюбителей здесь есть, где развернуться. Впрочем, звуковая карта в этом отношении много интереснее.

Последние годы GAME-порт практически потерял свое значение, и все современные игровые «прибамбасы», вроде джойстиков или рулей, подключаются к USB.

3.2. Голубой зуб

Первоначально поклонники датского конунга Х века Харальда I Синезубого, работавшие в фирме Ericsson, предполагали использовать свою разработку для построения беспроводных сетей. Только в отличие от Wi-Fi, прямо предназначенного для замены проводного Ethernet, Bluetooth (IEEE 802.15.1) не замахивался так высоко – сети, для которых он был предназначен, получили название «персональных» (WPAN, Wireless Personal Area Network). Предполагалось, что это будут сети масштаба комнаты или офиса – радиус действия Bluetooth не превышал 10 метров, и одновременно в сеть могли быть объединены до 8 устройств (одно главное, ведущее – Master, и еще 7 ведомых – Slave).

Конечно, сети на основе Bluetooth тоже выстраивают – особенно с вводом нового стандарта IEEE 802.15.3, базирующегося на той же технологии, что и Bluetooth, но имеющего радиус действия до 100 м (уже масштаба здания, как и Wi-Fi) и позволяющего подключать значительно большее число общающихся между собой устройств. Но сложилось так, что больше распространен оригинальный Bluetooth (IEEE 802.15.1), который стал использоваться в значительной степени, как замена интерфейсов парных соединений «точка-точка» – проводных COM и USB, а также очень неудобного на практике инфракрасного порта IrDA, хоть и беспроводного, но требовавшего прямой видимости устройств, да еще и в определенной ориентации друг к другу.

На практике Wi-Fi и Bluetooth конкурируют между собой слабее, чем это можно было предположить, и вытеснения одного другим пока что не предполагается: каждый занимает свою нишу. Приемопередатчики Bluetooth имеют маленькую мощность (порядка 1 мВт), сейчас стали совсем дешевыми и встраиваются не то что в сотовые телефоны, но даже в головные беспроводные гарнитуры, есть и Bluetooth-клавиатуры или мыши (хотя большинство таких устройств использует проприетарный радиоинтерфейс). В таких задачах, как переслать с мобильника на мобильник телефонный номер из записной книжки – здесь Bluetooth пока вне конкуренции, в силу крайней простоты его использования.

Простота организации связи по каналу Bluetooth, впрочем, оборачивается не слишком высоким уровнем безопасности. В силу небольшого радиуса действия, разработчики IEEE 802.15.1 не стали заморачивать себе голову проблемами капитальной защиты канала – о том, чтобы снабжать Bluetooth-каналами мобильные телефоны, в 1998 году, когда вышел первый вариант стандарта, и речи еще не было. Шифрование используется, но ключ передается открыто, и его ничего не стоит перехватить. Действительность заставила производителей горько об этом пожалеть: самый, вероятно, громкий скандал, связанный со взломом Bluetooth, произошел весной 2005 года, когда в Интернете был опубликована телефонная книга Пэрис Хилтон – светской львицы, знакомой чуть ли не со всеми знаменитостями США. А более мелкие неприятности случаются постоянно.

Подключение компьютеров через Bluetooth

Bluetooth стал широко распространяться как раз с появлением Vista, возможно, поэтому инструкций для Windows XP по процедуре подключения через Bluetooth значительно меньше, чем для новых версий. Мы не будем подробно копаться в различиях настроек беспроводной сети через Bluetooth в разных системах, а рассмотрим простейший случай соединения через Bluetooth двух компьютеров (например, ноутбуков) для передачи файлов по беспроводному каналу. А создание полноценной сети мы рассмотрим в последующих главах, ориентируясь на Wi-Fi, а не Bluetooth, что для сети более удобно и естественно.

В нашей модели будем считать, что компьютеры находятся под управлением разных версий Windows. Заметим, что аналогичным образом можно связаться с ноутбука и с любым другим устройством: с коммуникатором или мобильником, с беспроводной гарнитурой и прочими Bluetooth-устройствами. Такое подключение, как и вообще обращение с беспроводными сетями, сильно усложнено заботой о безопасности пользователя, которому придется продраться через несколько заслонов, препятствующих притаившимся за углом злобным хакерам выкачать ваши драгоценные файлы. Простое соединение, однако, имеет то преимущество перед созданием полноценной беспроводной сети на основе Bluetooth (WPAN), что по-настоящему файловые системы компьютеров извне не видны. Поэтому файл для передачи можно извлечь из любой папки и сохранить его в приемнике тоже в любой папке, необязательно открытой для всеобщего доступа.

Сначала нужно убедиться в том, что Bluetooth включен, и для каждого устройства разрешен к нему доступ. Включение контролируется через Диспетчер задач (горе обладателям ноутбуков, у которых дополнительно Bluetooth еще может отключаться аппаратно, клавишей на корпусе или сочетанием клавиш, хотя последнее время такое – редкость). В мобильных телефонах тоже существует как минимум две инстанции: собственно включение модуля Bluetooth и дополнительно разрешение доступа к телефону (например, если владелец пользуется головной Bluetooth-гарнитурой, то модуль будет включен, а вот доступ, скорее всего, запрещен). Если адаптер включен и все драйвера установлены, то в области уведомлений появится синий значок с белым рисунком, видимо, долженствующий напоминать синие зубы объевшегося черникой конунга Харальда I:

Разрешить доступ через Bluetooth в Windows 7 и Windows XP очень просто – надо щелкнуть правой кнопкой по этому значку и выбрать параметры соединения, где на вкладке

Для установления соединения сначала мы обращаемся через то же контекстное меню значка Bluetooth к пункту

Глава 4

Сменные носители

В

главе 3 «Компьютерные порты»

мы говорили о том, что система, состоящая только из процессора и памяти, вполне самодостаточна, но не сможет общаться с внешним миром. Мы рассмотрели ряд способов обеспечения такого общения – клавиатуры и мониторы, компьютерные порты и сети. Сейчас мы обратимся к более традиционному способу связи с окружающей средой, существующему почти с рождения компьютеров, – к сменным носителям информации. И самые первые компьютеры приходилось, как минимум, программировать и получать с них данные, потому даже Чарльз Бэббидж, создавший в XIX веке «аналитическую машину» – механический прототип всех современных вычислительных машин, предусматривал в своей конструкции ввод и вывод данных с перфокарт (а также и то, что мы сегодня называем принтером).

Перфокарты, изобретенные в начале XIX века создателем автоматических ткацких станков Жаккаром, вместе с менее надежными перфолентами прижились в компьютерном деле надолго – лишь в 1970-х годах они были вытеснены магнитными носителями (жесткими дисками и дискетами), но, по слухам, еще в 2000-х годах в военной среде можно было встретить отдельные экземпляры компьютеров, работавших на перфокартах. За последующее время было изобретено и похоронено в анналах истории множество способов хранения информации на самых разных принципах, причем некоторые из них, возможно, похоронены не окончательно. Однако, если не считать магнитных носителей в виде жестких дисков, только два таких способа остались до настоящего времени: это оптические диски (в форме CD и DVD) и постоянная память на основе хранения электрических зарядов (EEPROM), или, как ее чаще теперь называют, флэш-память.

4.1. Оптические диски

Оптические диски в настоящее время остановились в развитии – появление суперемких носителей в виде Blu-Ray в 2008 году, сопровождавшееся в течение нескольких лет обширной рекламной шумихой, компьютерной индустрией осталось практически незамеченным. И даже в той области, для которой они предназначались – распространение фильмов высокого качества – Blu-Ray отнюдь не стали доминировать, оставшись скорее дорогой игрушкой для счастливых обладателей Sony PlayStation и «навороченных» домашних кинотеатров. А вот старые типы оптических носителей – CD и DVD – уйдут еще нескоро, потому что они идеально приспособлены для централизованного распространения медиаконтента и компьютерных программ. Постепенно уходят они лишь из применений, связанных с многократным использованием для переноса информации, того, для чего когда-то были предназначены дискеты, – флэш-носители оказались для этой цели надежнее, быстрее и удобнее.

4.1.1. Устройство оптических дисков

Оптический диск представляет собой диск из поликарбоната диаметром 120 мм и толщиной около 1,2 мм с отверстием диаметром 15 мм в центре. Существует и стандарт на 80-миллиметровые мини-диски. Простейший незаписываемый компакт-диск фабричного производства изготавливается в процессе, во многом напоминающем производство виниловых пластинок, – создается матрица, с которой штампуют копии. Сначала делается эталонный диск из стекла, рисунок будущих дорожек на котором вытравливается плавиковой кислотой в процессе, очень напоминающем изготовление печатных плат. Со стеклянного эталона методом гальванопластики изготавливают никелевые матрицы, с помощью которых путем литья под давлением штампуют диски.

Отдельные биты информации при этом представлены на поверхности диска углублениями (pits, часто их по-русски так и называют «питами»), соответствующими логической единице, и промежутками между ними (иногда их называют выпуклостями – bumps), соответствующими логическому нулю. Расположена дорожка питов на верхней стороне прозрачной подложки из поликарбоната, на которую напылением затем наносят отражающий слой (из алюминия или золота). Длина «питов» для компакт-диска 0,83-3,1 мкм, ширина 0,4 мкм, глубина 0,12-0,2 мкм, расстояние между витками спиральной дорожки 1,6 мкм (часто упоминают, что это примерно в 50 раз меньше толщины человеческого волоса). Для DVD питы меньше, а дорожки уже, потому на нем умещается примерно в шесть раз больше информации, чем на обычном CD (4,2 Гбайт против 600–700 Мбайт). Отражающий слой сверху покрывают защитным лаком и допечатывают полиграфическим способом или наклеивают картинку.

Однократно записываемые (R) и перезаписываемые (RW) диски выполняются гораздо сложнее, потому они менее надежны. Между прозрачной основой-подложкой и отражающим слоем (для последнего здесь часто используют серебро, как компромисс между недолговечностью алюминия и дороговизной золота) находится специальный информационный слой из вещества, которое под действием нагревания становится непрозрачным. В RW-дисках это вещество может менять свое состояние неоднократно (по тому же принципу, по которому обратимо засахаривается мед), но для записи новой информации необходима специальная операция стирания. Число циклов стирания и записи у RW-дисков довольно сильно ограничено (несколько сотен), о чем многие не подозревают, однако на практике такие числа никогда не достигаются.

В процессе записи в приводе используют тот же лазер, что и при чтении, – его мощность повышают так, чтобы он прогревал нужный участок-пит до достаточной температуры там, где на диске должна записаться логическая единица. Для облегчения формирования дорожки при записи на CD-R в процессе изготовления «болванки» осуществляется предварительная разметка – рельеф, содержащий метки кадров и биты синхронизации, записанные с пониженной амплитудой и впоследствии перекрываемые записываемым сигналом.

Надежность и долговечность дисков падает в ряду фабричный-однократный-перезаписываемый, поэтому для долговременного хранения информации лучше употреблять однократно записываемые диски. Хранить их следует в темноте и вдали от химически активных растворителей или кислот (почему-то я никогда не встречал рекомендацию хранить перезаписываемые компакт-диски в холодильнике, как старинные магнитные ленты, хотя это было бы логично). Обращаться с ними следует с осторожностью – брать только за края и стараться не ронять на грязный пол, отчего могут возникнуть царапины. Вообще-то небольшое количество царапин диску вредить не должно, но на практике это наблюдается лишь для аудиоформатов, для которых утрата части данных не критична.

4.1.2. Форматы оптических дисков

Существует поистине огромное количество форматов записи на оптический диск, из которых на практике имеет значение лишь разница между тремя основными разновидностями, это аудиодиски, видеодиски и диски с данными (или диски с набором файлов).

Кратко остановимся на каждом из типов.

Аудиодиски

(обычно это CD) характеризуются тем, что не содержат файлов в компьютерном смысле этого слова. Точнее, файлы на них вы обычно обнаружите, но это лишь вспомогательная информация об основном содержимом таких дисков – звуковых треках.

Трек

представляет собой единую (т. е. без разрывов) спиральную дорожку, содержащую цифровые данные, записанные с частотой дискретизации 44,1 кГц и глубиной представления звука в 16 битов (65 тыс. градаций). В классическом аудиодиске эти данные не подвергнуты сжатию никаким из алгоритмов и содержат информацию всего о двух каналах – т. е. представдяют собой стереозвук. Обычно в таких случаях говорят о «CD-качестве» звучания, которое немногим отличается от стандартной виниловой пластинки.

Видеодиски

в настоящее время можно встретить практически лишь в формате DVD-Video (если не считать более качественного Blu-Ray). Они ближе к компьютерным формам записи информации и содержат набор файлов определенных форматов. Фильмы на DVD сжаты с использованием алгоритма MPEG-2 для видео и различных (часто многоканальных) форматов для звука. Стандартный размер видеокадра для формата DVD стандарта PAL равен 720x576 точек, стандарта NTSC – 720x480 точек, широкоэкранные форматы образуются из этих кадров усечением кадра по высоте. Потому DVD-Video имеют не слишком высокое качество записи изображения, но для бытовых целей оно устраивает большинство потребителей (потому-то намного более качественные, но и дорогие, диски Blu-Ray не получили пока широкого распространения). Есть и диски DVD-Audio – они похожи на DVD-Video по принципу устройства и содержат намного более качественный звук, чем и Audio CD, и обычные компьютерные форматы, вроде MP3.

Диски с данными

содержат обычные файловые системы, аналогичные тем, что применяются на компьютерных жестких дисках, и потому могут содержать любую информацию: в том числе и аудио, и видео, но на этот раз в виде обычных файлов. Для хранения звука широко известен компактный формат MP3, для хранения видео обычно используются различные файлы-контейнеры (самый известный – AVI, к контейнерам также относятся такие форматы, как MP4 или, например, Flash Video), в которых может содержаться звуковая и видеоинформация в самых различных форматах. Многие бытовые плееры, видеомагнитофоны или музыкальные центры также могут проигрывать видео или аудио в компьютерных форматах.

4.1.3. Запись оптических дисков

Как видим, запись оптических дисков разительно отличается от записи на жесткие диски или даже на флешки. Оптический диск представляет собой типичное устройство последовательного доступа – такое, в котором произвольный доступ к отдельным байтам невозможен. Чтобы перезаписать какой-то байт на таком диске, нужно сначала стереть весь диск и записать его заново. Чтобы сэкономить место и время, на практике разные программы используют такой прием – в новой сессии записывается только измененная информация (при этом старые варианты модифицированного файла благополучно остаются на диске, занимая место), а затем из старых сессий в новую переносится таблица размещения данных (Table of Contents, ТОС) таким образом, чтобы неизмененные файлы были доступны из новой сессии на своих старых местах, без перезаписи.

На диске к этой книге в папке Compact Disk размещена одна из бесплатных программ записи на CD и DVD – находящаяся на пике популярности уже в течение более шести лет Small CD Writer. Созданная еще в 2005 году программистом по имени Анатолий Вознюк, она совершенно не потеряла актуальности, а минималистский интерфейс, в котором нет ничего лишнего, зато есть все необходимое, только привлекает пользователей. Она состоит из одного-единственного файла, ее не надо устанавливать, она не полезет Сеть искать обновления, не внесет дополнительного мусора в реестр и не будет капризничать в любой версии Windows.

Small CD Writer умеет создавать, однако, только диски с данными, а также копировать имеющиеся диски через создание ISO-образа. Специфические форматы аудио– или видеодисков Small CD Writer создавать не умеет – для этого требуются другие программы.

Однако этот вопрос по настоящему актуален только в Windows XP. Современные версии Windows по понятным причинам все равно не могут копировать диски, и для создания ISO-образа (или копирования напрямую) потребуются сторонние программы. А все остальное: и запись дисков с данными, и создание аудио– и видеодисков – они прекрасно выполняют встроенными функциями.

4.2. Флэш-карты и флэш-накопители

Первые постоянные запоминающие устройства (Read-Only Memory, ROM) не позволяли изменять однажды записанную информацию. В 1956 году сотрудник корпорации American Bosch Arma Йен Чоу (Wen Chow) получил патент на устройство, которое теперь известно, как «однократно программируемое ROM» (OTPROM). В этом патенте, между прочим, впервые был употреблен термин «прожиг» (burn) – микромодуль состоял из матрицы с плавкими перемычками, которые при программировании пережигались подачей на них большого напряжения. Любопытно, что этот способ вполне дожил до наших дней – не меньше четверти микроконтроллеров (т. е. специализированных микропроцессоров) в мире, особенно из тех, что попроще, еще лет пять назад выпускались именно с такой однократно программируемой встроенной памятью – ввиду крайней ее дешевизны. В самом деле, если программа какой-нибудь игрушки отработана на опытных образцах, зачем ее, однажды записанную, потом менять, и кто этим будет заниматься? И лишь в последние годы «прожигаемая» память стала постепенно вытесняться более удобной flash-памятью – когда последняя подешевела настолько, что смысл в использовании OTPROM почти пропал.

В 1967 году в незабвенной Bell Labs был построен первый образец EPROM – энергонезависимой памяти, которую можно было неоднократно перепрограммировать (стирая информацию ренгеном). В 1971 году (одновременно с изобретением первого микропроцессора) фирма Intel разработала первый коммерческий образец EPROM (чип 1701 и его немного усовершенствованный вариант 1702), который стирался ультрафиолетовым светом через специальное окошко и потому получил название UV-EPROM. В 1974 году в Intel пришел некто Джордж Перлегос (George Perlegos), грек по происхождению и будущий основатель компании Atmel. Под его непосредственном руководством была разработана микросхема EEPROM под названием 2816 – чисто электрически перепрограммируемое ПЗУ. Это и был прообраз сегодняшней flash-памяти. Основой и EPROM, и EEPROM стал транзистор с плавающим затвором, изобретенный в той же Intel Доном Фрохманом (Don Frohman). И в последующем, несмотря на смены технологических эпох, принцип устройства ячейки энергонезависимой памяти остался неизменным – какой бы способ стирания и записи ни использовался.

Обновление информации в микросхемах EEPROM – страшно медленный процесс. Во-первых, каждую ячейку требуется сначала стереть – ведь запись, т. е. помещение на плавающий затвор зарядов тем или иным способом, лишь приводит ее в состояние «логического 0», а восстанавливать «логическую 1» приходится отдельно. Во-вторых, из-за большого потребления тока в процессе записи приходится каждую ячейку записывать фактически отдельно, а т. к. этот процесс занимал миллисекунды, то для перезаписи даже сравнительно небольших массивов требовались уже секунды. Правда, чтение из EEPROM – процесс очень быстрый, даже быстрее, чем из обычной компьютерной памяти DRAM.

Термин «flash-память» придумал в июне 1984 года некто Шойи Аризуми (Shoji Ariizumi), сотрудник корпорации Toshiba, уже после того, как его руководитель доктор Фуджио Масуока (р. 1943) послал сообщение о новом, изобретенном им типе энергонезависимой памяти на конференцию разработчиков электронных приборов IEDM в Сан-Франциско. Причем в сообщении Масуоки содержится описание сразу обеих главных современных архитектур flash-памяти: как NOR, так и NAND.

4.2.1. Флэш-карточки

Флэш-карточки существуют во многих разновидностях, из которых последнее время доминирует тип SD (Secure Digital). Названный так за возможность шифрования содержимого (первоначально SD-карты собирались приспособить к распространению медийного контента, вроде кинофильмов), этот тип карт, однако, стал применяться просто как носитель информации во всяческих мобильных устройствах: от сотовых телефонов и MP3-плееров до фотокамер и электронных книг. SD делятся по скоростным характеристикам, и если на карточке указан класс карты (2, 4, 6 и т. д., что означает скорость записи в Мбайт/с), то обычно перед вами медленная старая карта. На современных образцах тип не указывают, потому что они заведомо опережают устаревшую скоростную классификацию. Современные видеокамеры пишут видео при скорости 24 Мбит/сек (3 Мбайт/сек) – это самая скоростная задача в бытовой области (больший поток требует разве что многокадровая автоматическая съемка фотокамер с большой матрицей). Таким образом, для FullHD-видео требуется SD-карта класса не ниже 4, и это требование перекрывают все современные карты.

Карты SDHC (High Capacity – высокой емкости) совместимы с обычными SD «сверху вниз» – устройства, способные работать с SDHC-картами, поддерживают также и SD-карты. SD/SDHC-карты существуют в нескольких типоразмерах: обычные, microSD и miniSD, причем по форм-фактору они не совместимы друг с другом – miniSD короче и несколько уже обычной, а microSD вообще значительно ее мельче, потому без соответствующих переходников их в слот для обычной карты вставить нельзя..

Кроме карт SD, до сих пор распространены также карты Compact Flash (самый надежный, скоростной и емкий, но одновременно и самый крупный по размеру тип карт), XD-picture, MMC (совместима с SD) и другие типы карт, отличающиеся друг от друга конструктивным оформлением и интерфейсом. Учтите, что не все старые устройства могут воспринимать современные карточки большой емкости – при покупке надо проверить этот параметр по инструкции к устройству.

На флэш-картах традиционно используется простая и удобная файловая система FAT, она обеспечивает оптимальную производительность контроллера (впрочем, флэшку можно отформатировать в любой файловой системе, но мобильные устройства могут вас не «понять»). Для старых карточек использовалась FAT16, которая не поддерживает объемы более 2 Гбайт, а современные карты применяют систему FAT32. Другая особенность новых карточек большого объема – при чтении они поддерживают посекторную адресацию (т. е. только к блокам объемом 512 байтов, как на жестком диске), в то время как старые карты объемом до 4 Гбайт имеют побайтную адресацию (как оперативная память).

Для подключения флэш-карточек к компьютеру применяются различные кардридеры, которые иногда встраиваются в ноутбуки или принтеры, часто их можно встретить в конструктиве, заменяющем дисковод для дискет в настольных системных блоках. Все эти устройства используют порт USB для коммуникации, выпускаются и отдельные кардридеры, подключаемые к USB-порту. Обычно никаких специальных драйверов для кардридеров не требуется (за исключением тех, что встроены в принтеры – для доступа к ним из компьютера).

4.2.2. Флэш-накопители (USB-накопители)

Флэш-накопители отличаются от флэш-карточек только тем, что объединяют в одном конструктиве кардридер и собственно флэш-память, и в просторечии часто называются просто «флэшки». Флэш-накопители не различаются по типам, и все устроены одинаково – компактный корпус заканчивается USB-разъемом типа A. В Windows, начиная с XP, специальных драйверов для флэш-накопителей не требуется. Флэш-накопители – это то, что пришло на замену дискетам для переноса информации с компьютера на компьютер, только намного большей емкости. Все современные компьютеры позволяют также осуществлять загрузку с флэш-накопителей (разумеется, для этого «флэшка» должна иметь специальный загрузочный сектор, как и любые другие диски). Как и флэш-карточки, флэш-накопители можно форматировать в любой удобной файловой системе: и в FAT, и в NTFS.

Самое, пожалуй, неудобное свойство «флэшек» (и флэш-карточек, и флэш-накопителей) касается так называемого

безопасного извлечения устройств

– перед тем, как вытащить флэшку из разъема, следует проделать специальную процедуру ее полного отключения. Это дико неудобное свойство связано с особенностями представления файлов в операционной системе. Возможно, вы знаете, что в качестве файлов в ОС представляется любой порт, – даже операция обращения к принтеру есть по сути операция открытия файла. Но может случиться так, что к моменту физического отключения соответствующий «файл» оказался не закрыт, и данные попросту не записаны полностью. Тогда при отключении могут быть различные неприятности – вплоть до того, что флэшку оказывается невозможно даже отформатировать заново, чтобы привести в порядок. Такую флэшку останется только выбросить.

На самом деле, если соблюдать аккуратность, то специальная процедура «безопасного извлечения устройств» оказывается необязательной. Прежде всего следует дождаться окончания обмена данными (о чем можно судить по тому, что лампочка на флэшке перестает мигать) – если выдернуть флэшку в момент передачи данных, то это почти гарантированная поломка. Далее для надежности стоит закрыть программу, через которую осуществлялся обмен, – например, окно Проводника, в котором отображается содержимое флэш-диска. Убедившись, что больше никакая программа не претендует на «общение» с устройством, его можно извлечь.

Конечно, это совет из серии «свой страх и риск» – полную гарантию дает только обращение к функции безопасного извлечения устройств. Но автору очень неохота ковыряться в недружественном интерфейсе этой функции Windows, которая в последних версиях к тому же перестала полностью отключать устройство, лишь на словах гарантируя сохранность данных. Пока, соблюдая приведенные ранее меры предосторожности, мне не удалось испортить ни одного устройства.

Но, разумеется, и я предпочитаю не рисковать, когда дело доходит, например, до внешних жестких дисков – там цена ошибки оказывается слишком высокой. Если вам неохота возиться с утомительным «безопасным извлечением устройств» и в то же время боязно что-то испортить, то хороший компромисс представляет программа USB Safely Remove, которая делает процесс извлечения устройства гораздо удобнее и нагляднее. На диске к этой книге, к сожалению, я не могу ее разместить – программа платная и стоит в интернет-магазине

4.2.3. Твердотельные диски

В 2010 году, по данным компании Gartner, на твердотельных дисках хранилось 7,9 

%

информации, но уже к 2012 году эта цифра вырастет вдвое – до 15,9 %. Как раз когда эта книга была уже подготовлена к печати, пришло известие, что компания-производитель материнских плат Gigabyte официально представила материнскую плату со встроенным в нее твердотельным жестким диском емкостью 20 Гбайт. В данном случае SSD-накопитель будет выполнять роль емкого буфера памяти, значительно увеличивающего скорость загрузки работы операционной системы и установленных программ. Для таких систем Intel выпустила специальный чипсет под названием Z68.

Прогресс в разработке новых типов флэш-памяти привел к тому, что твердотельные диски (solid-state drive, SSD) обеспечивают намного большую скорость чтения/записи, чем обычные магнитные накопители с механическими головками. Прежде всего это получается потому, что скорость доступа к таким дискам не зависит от места размещения информации – исключается долгая операция позиционирования головок. Для SSD не требуется дефрагментация, упреждающее чтение и другие приемы, ускоряющие обмен информацией с обычными дисками. В Windows 7 реализована специальная поддержка SSD, но и другие системы с ними тоже будут работать быстрее.

Кроме того, твердотельные диски не боятся ударов и сотрясений (обычный жесткий диск запросто можно вывести из строя, если его просто резко повернуть в процессе обмена информацией), не так греются и потребляют меньше энергии, не шумят, занимают меньше места и готовы к работе немедленно после включения – времени на разгон шпинделя не требуется. Спрашивается – почему же до сих пор SSD не вытеснили магнитные накопители полностью?

Причиной служит несколько факторов, определяющим из которых является стоимость – на начало 2011 года для SSD она составляла от 2 долларов за каждый гигабайт емкости, при примерно 8 центах для жестких дисков. Кроме того, максимальная емкость SSD меньше, чем у жестких дисков, более чем на порядок (рядовые SSD для «ширпотребовского» сектора имеют емкость 64-120 Гбайт), и их стоимость растет прямо пропорционально емкости. Традиционно указывается, что SSD ограничены количеством циклов перезаписи, однако этот недостаток быстро выправляется за счет различных ухищрений, и сегодня можно считать, что срок службы рядового SSD не меньше, чем обычного магнитного диска (т. е. его емкость исчерпается раньше, чем он успеет выйти из строя).

Потому, если средства вам позволяют, ставьте в свою систему SSD, не раздумывая. Это обеспечит вам существенное ускорение работы (например, загрузки ОС), и в целом компьютер, особенно мобильный, окажется надежней. Никаких особых действий для этого применять не требуется – интерфейсы SSD точно такие же, как и у обычных жестких дисков.

4.3. Настройка автозапуска дисков и флэш-накопителей

Автозапуск дисков (не путать с автозагрузкой приложений! – о ней пойдет речь в

главе 10 «Установка, удаление и настройка программ в Windows»)

 – довольно полезная штука, но иногда он начинает раздражать. Когда вы в ответ на помещение в привод диска в сотый раз получите предложение с выбором из почти десятка вариантов действий, то захотите, чтобы это предложение не появлялось. Нюанс тут заключается в том, что выбрать какой-то один вариант (

Всегда выполнять это действие

) весьма затруднительно – в общем случае для разных случаев необходимы разные варианты. Кроме того, отметка в этом пункте никак не повлияет при выборе варианта

Не выполнять никаких действий

– предложение все равно будет запускаться.

Кроме того, когда вы остановили запуск какого-то диска через имеющийся на нем файл Autoruninf, при щелчке на значке привода в Проводнике он все равно будет запускаться, что иногда ставит новичков в тупик. Чтобы только открыть диск или флэш-накопитель в Проводнике для просмотра файлов, не запуская с него никаких программ, надо щелкнуть на его значке правой кнопкой мыши и выбрать пункт

Проводник

.

В Windows XP автозапуск дисков и флэш-накопителей можно настроить через контекстное меню значка привода или накопителя в окне

Мой компьютер

, пункт

Свойства

, вкладка

Автозапуск

. В Vista и «семерке» то же самое устроено куда удобнее – в Панели управления есть позиция

Автозапуск

, где настройки для всех типов содержимого собраны в одном окне (рис. 4.3). Там же можно отменить автозапуск полностью (снимите отметку в пункте

Использовать автозапуск для всех носителей и устройств

).

Рис. 4.3. Раздел Автозапуск Панели управления Windows Vista и 7