Являются ли информационные технологии инфраструктурными технологиями? Не исчезает ли их потенциал как фактор, обусловливающий достижение конкурентного преимущества по мере увеличения мощности, снижения стоимости и углубления стандартизации, а также с ростом осознания их значения для деловой практики и структуры отрасли? Проще говоря, не обречены ли они стать обычным товарным ресурсом, подобно железнодорожному транспорту, телефонной связи и электроэнергии?

Эти вопросы жизненно важны для менеджеров, но ответить на них непросто. Казалось бы, ИТ имеют фундаментальное отличие от предшествующих инфраструктурных технологий: они существуют одновременно в материальной («железо») и нематериальной (программное обеспечение) формах. Предшествующие инфраструктурные технологии также требовали определенного «программного обеспечения» - например, расписания движения поездов, накладных на грузы, тарифов на перевозки и руководств по эксплуатации техники. Однако ни одна из этих технологий не имела таких «программ», какие используются в современных компьютерах. Будучи созданными, большинство предшествующих инфраструктурных технологий не поддавались «перепрограммированию» и могли выполнять только одну или несколько функций. Информационные системы, напротив, могут выполнять разнообразные команды при помощи компьютерных программ и таким образом выполнять все большее количество функций. Соответственно, прежде чем решить, превращаются ли ИТ в обычный товарный ресурс, следует рассмотреть их с точки зрения компьютерной техники и ПО.

Разумеется, в своей физической ипостаси ИТ обладают многими чертами сходства с телеграфом, системой телефонной связи и даже железными дорогами и скоростными автомагистралями. На так называемой информационной супермагистрали разрозненные базы данных и центры обработки информации - ПК, серверы, мейнфреймы, системы хранения информации и другие устройства - соединены плотной сетью кабелей и переключателей. Все это хозяйство является своего рода транспортной системой ИТ, передающей цифровые данные таким же образом, как железная дорога перевозит грузы, а линии электропередачи передают электроэнергию.

Для обеспечения доступности транспортные системы общего пользования требуют быстрой стандартизации, которая по определению означает использование однотипного оборудования. Железные дороги и вагоны все более унифицируются за счет введения стандартной ширины колеи, профиля рельсов и колес, а также механизмов сцепления. В конце концов грузоотправители забывают, какой железнодорожной компании принадлежали те линии, по которым перевозились их товары, или в каких именно вагонах они перевозились. Точно так же стоит поставщикам и потребителям электроэнергии унифицировать стандарты силы тока, напряжения и монтажа проводки, как исчезают различия между отдельными видами генераторов и кабелей. Какой из современных компаний известен источник каждого потребляемого ею киловатта электроэнергии? Эффективная транспортная система требует взаимозаменяемости оборудования.

История развития ИТ также была историей их быстрой стандартизации. Пользователи стремились ко все большему межсетевому взаимодействию и все большей функциональной совместимости. От первых вычислительных машин, работавших в режиме разделения времени и позволявших разрозненным потребителям использовать мощности мейн-фреймов, до локальных и глобальных сетей, соединяющих компьютеры отдельных компаний в единую систему. От электронных систем обмена данными (EDI), обеспечивавших взаимодействие компьютеров различных компаний, до интернета, этой великой «сети сетей». Проходя через эти и другие стадии, компьютерная техника непрерывно унифицировалась, обеспечивая большие возможности для совместного использования.

Коммодитизация компьютерной техники.

Сегодня можно сказать, что коммодитизация современной компьютерной техники началась на периферии так называемой инфраструктуры предприятий, то есть с использования персональных компьютеров и соответствующего оборудования сотрудниками офисов и другими работниками, не связанными с техникой. С периферии она постепенно перемещалась в центр инфраструктуры предприятий. Процесс коммодити-зации четко отслеживается в постоянной экспансии Dell Computer - видимо, самой успешной в мире компании, производящей «железо».

Компания Dell была и остается поставщиком массовых товаров. Несомненно, гениальность Майкла Делла (Michael Dell), основателя и руководителя корпорации, заключалась в разумной и непоколебимой вере в коммодитиза цию ИТ. Он говорил: «В долговременной перспективе все технологии нацелены на стандартизацию, позволяющую снижать издержки». Первой коммерческой целью Делла были массовые продажи персональных компьютеров. Поскольку компании покупали ПК в больших количествах, последние быстро стали высокостандартизированным товаром. Тому было несколько причин. Во-первых, ПК должны были быть простыми в эксплуатации, потому что предназначались для непрофессиональных пользователей. Ни одна компания не могла позволить себе обучать каждого нового сотрудника работе на компьютере уникальной конфигурации. Во-вторых, для внутри- и межсетевого обмена файлами и сообщениями ПК должны были быть совместимыми. В-третьих, росла необходимость использования единой операционной системы (Microsoft Windows), единого процессора (Intel или Intel-совместимого) и единого набора базовых программ (в первую очередь Microsoft Office). В-четвертых, ПК должны были быть достаточно дешевыми для того, чтобы стоять на столе у каждого сотрудника.

Майкл Делл одним из первых понял, что бизнес-ПК должны стать неотличимыми друг от друга «ящиками». Он построил работу своей компании таким образом, чтобы производить и продавать ПК быстро и недорого. Он использовал типовые комплектующие, свел инвестиции в НИОКР и оборотный капитал к минимуму и начал продавать компьютеры напрямую пользователям. Недорогие функциональные компьютеры Dell оказались привлекательными для корпоративных потребителей. В 1990-е годы компания стала ведущим поставщиком ПК компаниям, и все остальные крупные производители бизнес-ПК как массового товара должны были конкурировать с Dell на его условиях. В 2001 году Майкл Капеллас (Michael Capellas), руководитель компании Compaq Computer, которая ранее была лидером отрасли, выразился по этому поводу весьма определенно: «Dell превратил этот бизнес в ценовое состязание». Вскоре компания Compaq прекратила свое существование, слившись с Hewlett-Packard.

В начале 1990-х другие элементы аппаратной инфраструктуры предприятий, в частности серверы, системы хранения данных и сетевое оборудование, «сопротивлялись» стандартизации. Поскольку эта техника «оставалась за кадром» (с ней работали только специалисты, и она выполняла узкоспециализированные функции), потребность в единых стандартах была невысока. Производители могли по-прежнему использовать собственные чипы и операционные системы (operating software), подключая только своих клиентов и блокируя доступ конкурентам. Поскольку корпоративные затраты на такое оборудование постоянно увеличивались, через несколько лет начал расти спрос на недорогие решения, то есть на такие системы, приобретение, обновление и поддержка которых обходились дешевле. В связи с этим росла необходимость стандартизации. Она стала возможна благодаря увеличению скорости и совершенствованию микрочипов. Создатели дешевых чипов для массового потребления быстро ликвидировали преимущества фирменных технологий таких гигантов, как IBM, Sun и Hewlett-Packard. Быстрое развитие интернета в конце 1990-х годов еще более усилило тенденцию к созданию стандартизированного, модульного, легко объединяемого в сеть оборудования.

Первыми на этот путь встали серверы и рабочие станции, то есть компьютеры, занимающие в иерархии аппаратных средств следующую ступень после ПК. В начале 1990-х эти мощные специализированные машины производились ограниченным количеством поставщиков, каждый из которых предлагал собственную уникальную технологию. Например, компания Sun производила серверы на базе своего процессора Sparc и снабжала эти серверы пакетами прикладных программ Solaris, базирующихся на операционной системе Unix. Однако с ростом производительности эти некогда мощные машины все меньше отличались от ПК младшего поколения.

Вскоре стандартные серверы уже работали на базе процессоров Intel и использовали разновидность операционной системы Windows. Неудивительно, что и здесь компания Dell быстро вышла на рынок и вскоре стала крупнейшим поставщиком серверов на базе Windows. И снова экономичные системные блоки для массового потребления оказались наиболее привлекательными для пользователей серверов. Например, когда нефтяной гигант Amerada Hess заменил компьютеры IBM на комплекс рабочих станций Dell, его ежегодные затраты на лизинг и эксплуатацию оборудования сократились с $1,5 млн до $300 тыс..

Сегодня, когда скорость процессоров продолжает расти, а операционная система Linux с открытым исходным кодом (open-source) завоевывает все более прочные позиции в сегменте серверов, тенденция к переходу на типовое оборудование усиливается. Эта тенденция четко проявляется на примере оператора ведущей поисковой системы интернета Google. Несмотря на то что каталогизация и поиск в миллиардах веб-страниц требует высочайшей производительности, компания разработала свое «железо» на основе готовых серийных комплектующих, старых процессоров и бесплатного программного обеспечения с открытым исходным кодом. В 2002 году руководитель компании Google Эрик Шмидт (Eric Schmidt) буквально шокировал отрасль, заявив, что его компания не намерена спешить с покупкой новейшего микропроцессора Itanium, разработанного Intel и Hewlett-Packard. Как писала газета New York Times, по мнению Шмидта, «мощные центры обработки данных нового поколения будут создаваться на базе небольших и недорогих процессоров, как из деталей конструктора Lego, и все активнее вытеснять старые мейнфреймы и серверы 1980-1990-х годов».

Примеру Google последовал крупнейший интернет-магазин Amazon.com. Всего за год, с 2000-го по 2001-й, компания сократила свои расходы на ИТ почти на 25%. Это удалось сделать прежде всего благодаря замене серверов с проприетарными процессорами и операционными системами более дешевыми машинами на базе процессоров Intel под управлением ОС Linux. По тому же пути пошел промышленный гигант General Electric. По словам директора по информатизации Гэри Рейнера (Gary Reiner), перевод многих корпоративных приложений на массовые компьютеры позволил компании снизить инвестиции в новые системы ни много ни мало на 40%.

Такая же долгосрочная тенденция, хотя и более медленная, наблюдается на двух других целевых рынках компании Dell - на рынке устройств для хранения информации и рынке сетевого оборудования. Таким крупным поставщикам накопителей данных, как компания ЕМС, до последнего времени удавалось сохранять проприетарные конфигурации техники и ПО. В 2001 году компания Dell, обеспокоенная отсутствием единых стандартов, заключила контракт на дистрибуцию и частично на производство оборудования компании ЕМС сроком на пять лет. Однако, как и в случае с серверами, на рынке устройств для хранения информации также начинается бум стандартизации. Пользователи и поставщики уже разрабатывают технические стандарты, позволяющие компаниям закупать устройства для хранения данных у разных поставщиков и объединять их в единые системы. В конце 2003 года для достижения большей функциональной совместимости своего оборудования лидеры отрасли - компании ЕМС и IBM - договорились о единых стандартах в области разработки программ хранения данных. Их конкуренты, производящие более дешевую технику, например японский электронный гигант Hitachi, увеличивают свою долю на рынке, предлагая типовую технику, работающую на программном обеспечении с открытым исходным кодом. По мере усиления конкуренции и дальнейшего падения цен все больше компаний будут рассматривать устройства для накопления информации в качестве товара массового потребления.

Затем настанет очередь компьютерных сетей. Dell уже предлагает линию простых коммутаторов (switch), цены на которые в пять раз ниже, чем цены на продукцию конкурента - лидера отрасли компании Cisco. Высокопроизводительные системы переключения и маршрутизации по-прежнему защищены правом собственности и комплектуются сложными (и строго охраняемыми) процессорами и ПО. Но и в этой области наблюдаются все признаки грядущих перемен. Как утверждают авторы статьи, опубликованной в 2003 году в журнале Business 2.0, «как и в случае с системами хранения данных, не исключено, что ведущие производители сетевых устройств скоро потеряют свои особые позиции на рынке. Благодаря командам, которые Intel и Broadcom уже встраивают в сетевые чипы, любой производитель компьютерной техники легко сможет купить то, на что у него ушли бы годы исследований». По мере роста мощности ИТ вчерашние «чудесные машины» становятся дешевыми «ящиками».

Конечно, никто не может гарантировать Dell лидирующие позиции на всех названных рынках компьютерной техники. Все более острой становится конкуренция как с производителями специализированного оборудования, например с EMC, Hitachi и Cisco, так и с такими гигантами, как IBM, Microsoft и Hewlett-Packard. Все крупнейшие компании, работающие в области ИТ, будут упорно бороться против концентрации контроля над высокопроизводительной инфраструктурой в одних руках. Однако такая ожесточенная конкуренция лишь ускорит коммодитизацию. Независимо от того, победит или проиграет Dell в этой борьбе, сама борьба будет происходить по установленным ею правилам.

Чтобы понять, почему обострение конкуренции ведет к коммодитизации компьютерной техники, можно использовать понятие «эффекта перелета» (overshooting), подробно описанного Клэйтоном Кристенсеном (Clayton Christensen) в книге «Дилемма инноватора» (The Innovator's Dilemma). «Перелет» - это ситуация, в которой производительность технологического продукта превышает потребности большинства пользователей и тем самым стимулирует появление более дешевых аналогов. Кристенсен поясняет: «Развитие технологии зачастую опережает рост спроса основных потребителей. Поэтому техническое совершенствование продуктов, характеристики и функциональные возможности которых в наибольшей степени соответствуют сегодняшнему спросу на рынке, нередко приводит к тому, что они начинают опережать потребности завтрашнего массового рынка. Продукты же, которые сегодня серьезно отстают от будущих ожиданий массового потребителя, завтра могут оказаться вполне конкурентоспособными по производительности».

«Эффект перелета» - это распространенное, возможно, даже общее явление в сфере компьютерных технологий, которые непрерывно совершенствуются. Подгоняемые необходимостью удовлетворять спрос самых требовательных потребителей и сохранять при этом высокую прибыль, поставщики технологий ведут жестокую конкурентную борьбу, стремясь сделать свою продукцию безупречной, и придают ей новые особенности и функции, чтобы сохранить лидерство на рынке. Однако каждое следующее поколение технологий демонстрирует «эффект перелета», превосходя потребности отдельных потребителей, которые нередко реагируют таким образом, что переходят на более дешевые базовые версии от других производителей.

В конечном итоге по мере развития технологии производительность самых дешевых образцов новой техники начинает отвечать потребностям большинства покупателей, и конкурентная борьба перемещается из области технических характеристик в область цен. «Эффект перелета» объясняет, почему Google может игнорировать новейший процессор Intel, компании Amerada Hess, Amazon и General Electric используют менее дорогие серверы, a Dell всегда удается «поживиться» на новых рынках, перемещая конкуренцию в область снижения цен. Это явление объясняет, почему Windows вытесняет специализированные операционные системы, a Linux в свою очередь вытесняет Windows. Многие производители компьютерной техники не сразу признают существование «эффекта перелета». Им хочется верить, что запросы потребителей и возможности их техники всегда шагают нога в ногу. Однако в отличие от производства компьютеров потребности потребителей не подчиняются закону Мура. Рано или поздно большинство из них начинают довольствоваться тем, что имеют. Потребителям просто не нужна более высокая мощность или новый усложненный набор функций. Их вполне устраивает массовый товар.

Когда эта тенденция придет к своему логическому завершению, для среднестатистического пользователя перестанут существовать индивидуальные компоненты физической инфраструктуры. Компании будут просто подключаться к общей инфраструктуре при помощи кабеля или антенны и автоматически получать доступ ко всем необходимым функциям. ИТ станут такими же простыми в использовании, как электричество. Собственно говоря, именно к этому сейчас и стремятся многие ИТ-компании. В так называемых сетевых вычислениях компьютеры, подключенные к сети, не просто обмениваются файлами или совместно используют разрозненные приложения. По сути, они сливаются в единую числовую машину. Все процессоры и резервы памяти используются совместно, и задачи отдельных пользователей в области обработки и хранения данных распределяются между ними наиболее эффективным образом. При сетевых вычислениях сеть по существу превращается в единый компьютер, как и обещал несколько лет назад известный рекламный лозунг компании Sun Microsystems, а использование компьютеров становится просто разновидностью коммунальных услуг.

Многим руководителям компаний, долгие годы боровшихся с капризной, несовместимой компьютерной техникой, подобная перспектива может показаться утопией. Действительно, чтобы масштабные сетевые вычисления стали реальностью, предстоит ликвидировать еще многие технические барьеры. Тем не менее их развитие уже началось. Более 2 млн человек предоставили свои ПК для почти фантастического проекта SETI, нацеленного на отслеживание радиосигналов из космоса в надежде обнаружить признаки разумной жизни. Терабайты информации, аккумулированной при помощи радиотелескопа в Аресибо (Пуэрто-Рико), через интернет передаются на компьютеры участников проекта и обрабатываются по мере появления свободных машинных циклов. Несколько коммерческих предприятий проводят эксперименты по созданию локальных сетей на базе собственных ПК и других компьютеров для более полного использования вычислительных мощностей.

Что действительно необходимо для более широкого распространения сетевых вычислений, так это программное обеспечение нового поколения, позволяющее координировать всю связанную между собой удаленную компьютерную технику, и простой интерфейс, скрывающий от пользователей сложную работу сети, подобно тому, как первый графический интерфейс Macintosh скрывал громоздкую работу первых ПК. Многие крупнейшие поставщики ИТ, включая Microsoft, IBM и Hewlett-Packard, лихорадочно работают над созданием необходимого программного обеспечения, надеясь оказаться в авангарде сетевых вычислений и в конечном счете получить от этого прибыль. Их успех в создании совершенной скоординированной сети будет означать наступление заключительного этапа коммодитизации компьютерной техники, на котором пользователи перестанут различать оборудование различных производителей. Физическая инфраструктура ИТ обретет окончательный вид и в основном станет невидимой.

Коммодитизация программного обеспечения.

Но есть еще и программное обеспечение. Как продукт оно, в отличие от компьютерной техники, не имеет осязаемой материальной формы и неизменного облика. Теоретически ПО может принимать неограниченное количество форм для решения неограниченного количества задач. Оно кажется столь же абстрактным и текучим, как сама мысль. Как пишет в своей книге «Переход» (Go To) корреспондент газеты New York Times Стив Лор (Steve Lohr), «программное обеспечение является воплощением человеческой мысли». Как же текучая и изменчивая человеческая мысль превращается в массовый товар?

Однако именно с этой идеалистической точки зрения программное обеспечение рассматривается многими представителями ИТ-бизнеса. В общем, такая позиция вполне корректна: нет предела инновациям в области ПО. Однако это представление не отражает прозаическую практику реального использования программных средств в бизнесе. В сущности, для руководителей и сотрудников компаний ПО не является идеей или абстрактным понятием. Компьютерные программы, в особенности прикладные, это осязаемые продукты, приобретаемые за реальные деньги конкретными людьми, стремящимися к достижению реальных результатов. И если рассматривать ПО не в качестве абстракции, а как продукт, становится ясно, что оно так же подчиняется законам экономической теории, рынка и конкуренции, как и самые обычные материальные товары. На самом деле именно нематериальная форма ПО обусловливает некоторые его дополнительные характеристики, в совокупности делающие его еще более подверженным коммодитизации, чем многие материальные товары.

Так, компьютерные программы в значительной степени подвержены эффекту масштаба. Разработка программы требует серьезных затрат, работы высококвалифицированных специалистов, тщательного планирования, строгого контроля качества, координации и бесконечного тестирования. Однако если программа уже написана, физических ограничений для ее воспроизводства практически не существует. Ее копирование и распространение почти не требует затрат, а иногда не требует их вообще. В значительной степени история разработки программного обеспечения - это история попыток более полно использовать латентный эффект масштаба и компенсировать высокие затраты на разработку за счет максимального увеличения количества пользователей. Хотя часто говорят, что программное обеспечение стремится к бесплатному использованию, правильнее будет сказать, что оно стремится к увеличению количества распределенных или удаленных пользователей или, иными словами, к превращению в товарный ресурс.

В начале 1950-х годов, когда компьютеры впервые стали использоваться в бизнесе, у компаний не было другого выхода, кроме как разрабатывать собственные программы. Производители компьютерной техники почти не занимались разработкой ПО, а соответствующей специализированной отрасли еще не существовало. Каждая компания, покупающая мейнфрейм, должна была создавать программы для выполнения даже самых элементарных функций, таких как преобразование двоичных чисел в десятичные и наоборот. Учитывая сложность и высокие затраты, разработка надежной программы требовала колоссальных (и, как вскоре выяснилось, бесполезных) усилий. Опасаясь, что затраты на разработку ПО могут отпугнуть покупателей компьютеров, IBM помогла объединиться пользователям ее мейнфреймов серии 700, которые в то время были основными бизнес-компьютерами. Ассоциация, получившая говорящее название Share («Делись»), имела одну главную цель: снижение затрат компаний на ИТ за счет обмена программным обеспечением. В первый год существования Share среди ее членов были распространены около 300 программ, что, по оценке специалистов, позволило сэкономить не менее $1,5 млн.

На примере ассоциации Share впервые проявился принцип, который сегодня стал основным императивом развития программного обеспечения для бизнеса: ради достаточно серьезного сокращения затрат компании готовы пожертвовать своей исключительностью. Разумеется, такой подход используется не только в области ПО, но и вообще в бизнесе. Если широко используемый ресурс дорог и в значительной степени подвержен эффекту масштаба, соображения, связанные с экономией затрат, возобладают над стратегическими. В таких случаях контроль над поставками ресурса обычно переходит от пользователей к нескольким внешним поставщикам. Естественно, именно это и произошло с ПО.

Поскольку программы постоянно усложнялись и включали уже не тысячи, а сотни тысяч, а то и миллионы строк машинного кода, обмена в рамках объединений пользователей было уже недостаточно. Большинство компаний просто не могли себе позволить содержать штат, необходимый для самостоятельной разработки программ. Вместо этого они начали заключать контракты на разработку ПО со специализированными фирмами, которые впервые появились в середине 1950-х и быстро размножились в 1960-е. Программисты, оставшиеся в штате компаний, постепенно перестали писать новые программы и начали заниматься их обслуживанием, совершенствованием и устранением ошибок.

По мере накопления опыта централизованного обслуживания самых разных клиентов новые фирмы смогли гораздо полнее использовать эффект масштаба, изначально присущего этой отрасли. В то же время их появление способствовало дальнейшей коммодитизации программного обеспечения для бизнеса, инициировав его трансформацию из внутреннего корпоративного ресурса в закупаемый извне. Хотя фирмы-контракторы разрабатывали для клиентов так называемые клиентские приложения, на самом деле эта тенденция кастомизации была скорее кажущейся, чем реальной. Чтобы иметь возможность неоднократно использовать большие фрагменты уже написанных единожды программ для выполнения разных заказов, подрядчики специализировались на конкретных отраслях или бизнес-процессах. Как поясняет специалист по истории программного обеспечения Мартин Кэмпбелл-Келли (Martin Campbell-Kelly), «по мере того как фирмы получали все больше и больше заказов из одной области применения, происходило накопление знаний в области программных средств и ресурсов, благодаря чему они могли и различных сочетаниях использоваться для выполнения заказов от самых разных клиентов». Только за счет такого многократного использования сложные программы оставались доступными для широкого круга компаний, а разработчики программ получали прибыль.

С появлением в 1970-1980-е годы миникомпьютеров, а затем и ПК произошли три важных изменения, которые сильно повлияли на процесс разработки программного обеспечения и усилили позиции поставщиков. Во-первых, компании смогли позволить себе покупать больше компьютеров. В результате количество пользователей увеличилось в несколько раз. Соответственно возросли и возможности экономии за счет эффекта масштаба при разработке ПО. Во-вторых, сотрудники нетехнических специальностей впервые начали непосредственно работать на компьютере, поэтому программы должны были быть простыми в использовании и стандартизованными. В-третьих, возросла роль компьютерных сетей, и компании были вынуждены заменить «закрытые» корпоративные приложения на «открытые». В результате этих изменений программы стали продаваться в виде прикладных пакетов.

Эволюция пакетов программ имеет поразительное, но вполне закономерное сходство с эволюцией компьютерной техники. Первые популярные приложения для массового рынка, такие как текстовые редакторы и программы для работы с электронными таблицами, использовались самой многочисленной и наименее технически подготовленной группой потребителей (то есть рядовыми сотрудниками компаний) и выполняли общие, периферийные задачи. Но постепенно пакеты приложений начинали играть все более важную роль в работе компаний и выполнять все более специализированные задачи. Рост производительности микропроцессоров и необходимость их функциональной совместимости, обусловливающие необходимость стандартизации даже самой сложной компьютерной техники, также диктовали потребность унификации самых сложных программ. К концу 1980-х компании не просто покупали одни и те же текстовые редакторы и программы для работы с электронными таблицами. Они приобретали типовые программы для управления базами данных, создания локальных сетей, бухгалтерского учета, биллинга, разработки производственных графиков, управления запасами и персоналом, компьютерного дизайна и проектирования и т. д. Раньше разработка специальных программ для выполнения всех этих технических и экономических задач была возможной, хотя и требовала больших затрат. Теперь любая компания могла купить все эти программы (или, по крайней мере, получить лицензию на их использование) всего за несколько сотен долларов.

Кульминацией развития пакетов программ для бизнеса в 1990-е годы стало введение систем планирования ресурсов предприятия (ERP). Пионером в этой области разработки стала немецкая фирма SAP. Программы, которые разрабатывала эта фирма, должны были решить (и иногда действительно решали) одну из самых болезненных и «дорогих» проблем, стоящих перед современными компаниями: проблему хаоса узкоспециализированных приложений. По мере того как компании, отдельные предприятия или подразделения компьютеризировали одну функцию за другой, возникала проблема, связанная с необходимостью синхронного управления огромным количеством несовместимых программ, написанных на разных языках и требующих разной техники и операционных систем. Несовместимое программное обеспечение не только обусловливало высокие затраты на обслуживание и устранение неполадок. Оно также требовало дополнительной работы и увеличивало количество ошибок, поскольку одни и те же данные приходилось вводить в разные программы в разных форматах. Из-за этого руководители компаний не могли получить целостного представления о работе компании. Они могли видеть только отдельные ее аспекты.

В программном обеспечении SAP и других систем планирования ресурсов, появившихся вслед за ним, основные приложения для управления предприятием (бухгалтерский учет, управление персоналом, планирование производства, ценообразование, продажи) служили модулями единой интегрированной системы. Использование всеми модулями единой базы данных устраняло необходимость в повторном вводе информации, снижало вероятность ошибок и позволяло менеджерам получить гораздо более точное представление о работе компании. Хотя изначально можно было создавать отдельные уникальные элементы системы планирования ресурсов для конкретной отрасли или компании, внешние консультанты при выполнении заказов обычно «подгоняли» стандартные программы к потребностям отдельных потребителей на основе использования стандартизованных средств изменения конфигурации. Таким образом, любая ценная модификация могла быть скопирована другими компаниями. К концу 1990-х годов стало ясно, что масштабная «подгонка» редко стоила затраченных усилий. Компании все чаще предпочитали готовую базовую конфигурацию, понимая, что изменение комплексных программ потребует значительных затрат времени и денег, но не приведет к значимой дифференциации.

Более того, системы от разных поставщиков почти не имели функциональных различий. Вне зависимости от того, у кого вы покупали систему управления ресурсами - у SAP, Oracle, PeopleSoft или Вааn, вы получали одни и те же базовые функциональные возможности и одни и те же плюсы и минусы. Различия между программами продолжали стираться, так как поставщики быстро копировали друг у друга все более или менее значимые новшества и каждое новое поколение программ было все более унифицированным. К 1998 году Рей Лэйн (Ray Lane), занимавший тогда пост президента Oracle, признавался, что «потребители не могут обнаружить даже пятипроцентного отличия между продуктами SAP, PeopleSoft и нашей компании».

Как и другие корпоративные системы, которые автоматизировали, например, управление поставками или связями с клиентами, системы управления ресурсами предприятия были крайне сложными, а их создание требовало больших затрат. Даже после того как SAP разработала версию программы для мейнфреймов, ей пришлось дополнительно потратить около $1 млрд на разработку версии для клиентских серверов. Самостоятельно написать для себя подобную программу не смогла бы ни одна компания. Комплексные корпоративные системы могли быть созданы только внешними поставщиками, способными переложить затраты на их разработку на многочисленных заказчиков. Поэтому когда крупные компании выстроились в очередь к поставщикам таких программ, стандартное, массовое программное обеспечение начало работать «в самом сердце» предприятий. И снова в глазах руководителей компаний эффективность от использования единого ПО оказалась ценнее утраченной исключительности.

Когда генератором технологических инноваций становится не столько пользователь, сколько поставщик и подрядчик, как в случае с программным обеспечением, компаниям становится все сложнее дифференцироваться. Появление в конце XIX - начале XX века механических станков наглядно иллюстрирует эту тенденцию. Механические обрабатывающие станки являются аналогом компьютерных программ по трем причинам. Во-первых, они представляют собой своеобразный инструмент программирования, поскольку механизируют изготовление деталей или изделий, сохраняя информацию об их форме, размере и процессе производства. Во-вторых, они могут быть переналажены для выполнения различных функций, от простейших до самых сложных. В-третьих, они быстро начали широко применяться в промышленности, так как повышали производительность настолько, что практически каждый производитель был вынужден их использовать.

Первые механические станки представляли собой простейшие зажимы, то есть деревянные панели, которые использовались при работе с пилой или фрезой. Чем удачнее мастер продумывал конструкцию такого станка, тем выше была скорость работы и качество продукции. Это давало преимущество и мастеру, и его работодателю. Появление в конце XIX века электроэнергии и электромоторов позволило создавать гораздо более совершенные станки, и возникла новая отрасль экономики - станкостроение. Продавая свое оборудование различным компаниям, такие производители, как Cincinnati Milling Machine Company, смогли добиться экономии за счет эффекта масштаба и распределить высокие затраты на разработку станков между многочисленными потребителями. В первой половине XX века станки быстро совершенствовались благодаря ряду технических изобретений, например зубчатой передачи, гидравлического пресса и электромеханических рычагов. Каждое такое изобретение увеличивало сложность станков, что позволяло повысить точность, скорость и гибкость производственных операций.

Совершенствование обрабатывающих станков значительно увеличило эффективность производства за счет роста производительности и качества продукции. Однако поскольку производители станков, естественно, стремились увеличить объем продаж за счет обслуживания максимально возможного количества заказчиков, технические изобретения быстро распространялись во всей отрасли. Преимущества использования достижений технического прогресса не становились собственностью отдельного производителя, по крайней мере надолго. В результате совершенствование механических станков обычно способствовало развитию всей отрасли, не создавая устойчивых конкурентных преимуществ для отдельных компаний. Превращение разработки ПО в самостоятельную отрасль обслуживания имело те же последствия.

Будущее программного обеспечения.

Эффект масштаба в производстве ПО объясняет распространение пакетных типовых программ, предлагаемых поставщиками и используемых многими компаниями. Однако программное обеспечение также в значительной степени подвержено уже упомянутому «эффекту перелета», который в свою очередь способствует коммодитизации. Как и производители компьютерной техники, компании, разрабатывающие ПО, вынуждены постоянно совершенствовать свои программы, чтобы удовлетворять потребности продвинутых пользователей и опережать конкурентов (или хотя бы не отставать от них). Однако в случае программного обеспечения существуют дополнительные факторы, обусловливающие «эффект перелета». Поскольку ПО не является материальным продуктом, оно «нетленно», то есть не подвержено физическому износу. Это устраняет необходимость его реновации за счет новых закупок. Единственный способ заставить потребителя снова купить программу - это сделать ее лучше, то есть модернизировать. Циклическая модернизация и постоянное совершенствование ПО были важнейшей задачей большинства производителей пакетного ПО, однако они также способствовали «эффекту перелета». Так, в 1980-1990-е годы компания Microsoft выпустила множество эффективных новых версий Microsoft Office. Однако когда появился Microsoft Office 97, оказалось, что рынок принимает его неохотно. Многим пользователям были не нужны новейшие возможности, и скорость модернизации упала. В конце концов недовольные потребители вынудили Microsoft выпустить специальный конвертер, позволявший открывать файлы Office 97 в Office 95, что позволило им продолжать использовать старые программы. Microsoft Office превзошел потребности большинства пользователей. Это и было очевидным проявлением «эффекта перелета».

Как и в случае с эволюцией компьютерной техники, тенденция к опережению предложения по сравнению с потребностями пользователей открывает дорогу дешевым массовым версиям приложений. Это в значительной степени объясняет растущую популярность ПО с открытым исходным кодом. Хотя первые версии подобных программ чаще всего были «неуклюжими», не имели продвинутых пользовательских интерфейсов и часто ломались, число их потребителей стабильно росло по мере развития возможностей таких программ и их унификации. Сейчас основной программой для веб-серверов, использующей открытый код, является Apache. Ее доля на рынке составляет 65%. Объем продаж на рынке операционной системы Linux продолжает расти за счет сокращения доли Windows и других систем разработки, основанных на Unix. На рынке ПО для управления базами данных MySQL отвоевывает позиции у традиционных и дорогих программ Oracle, IBM и Microsoft. В процессе разработки или доработки находятся еще несколько программ с открытым исходным кодом, в том числе такие бесплатные оболочки для офисных приложений, как OpenOffice, файлы которых совместимы с Microsoft Office. Можно не сомневаться, что по мере роста их возможностей многие из этих приложений также начнут вытеснять более дорогие пакетные программы традиционных поставщиков.

В действительности иногда распространение бесплатного ПО активно поощряется известными компаниями, поскольку рассматривается как подрыв позиций конкурентов. Например, когда в 2000 году компания IBM объявила о поддержке Linux, это было сделано прежде всего для того, чтобы переманить пользователей операционных систем главных конкурентов компании - Microsoft и Sun. Такую же цель преследовала компания SAP, когда в 2003-м начала распространение среди своих клиентов MySQL. Этот гигант корпоративного ПО спит и видит, как бы ослабить позиции Oracle, IBM и Microsoft в области конкурирующих программ для работы с базами данных. В свою очередь Sun активно продвигает модификацию OpenOffice (недорогой пакет приложений StarOffice), надеясь подорвать позиции Microsoft на рынке настольных ПК. Поставщики информационных технологий только рады, если продукция их конкурентов становится массовым, ничего не стоящим товаром.

Другим фактором, стимулирующим процесс коммодитизации ПО, является продолжающееся усложнение средств, используемых программистами. В начале 1950-х годов для программирования меинфрейма приходилось писать инструкции в машинном коде - в форме натуральных двоичных чисел, считывавшихся компьютером. В 1960-е появление языков Fortran, Cobol и Basic позволило программистам работать на более высоком уровне, используя более естественные форматы, напоминавшие алгебраические уравнения, а иногда и речевые сигналы. Позднее графические программы, например Microsoft Virtual Basic, и объектно-ориентированные языки, например Java компании Sun, еще более упростили разработку программ, облегчив программистам повторное использование модулей программы, выполняющих конкретные задачи. Стало возможным быстро воспроизводить или совершенствовать функциональные возможности существующих программ. Это делало собственное статичное программное обеспечение еще менее привлекательным.

Упростив разработку ПО, появление новых средств программирования также способствовало постоянному росту количества профессиональных программистов, недостаток которых в прошлом часто становился препятствием для создания или тиражирования программного обеспечения. В 1957 году во всем мире насчитывалось не более 20 тыс. профессиональных программистов. Сегодня их количество оценивается примерно в 9 млн человек. Действительно, важнейшей тенденцией развития ПО стал быстрый перенос производства в страны с дешевой рабочей силой, в первую очередь в Индию. Компания General Electric уже пользуется услугами приблизительно 8 тыс. индийских подрядчиков для написания программ и решения других задач по эксплуатации своих информационных систем. В Индии сегодня разрабатывается около половины всех программ, выпускаемых компанией. Пример General Electric не является исключением. По прогнозам Forrester Research, к 2015 году с целью снижения затрат 500 тыс. рабочих мест в индустрии ИТ США будет переведено в другие страны. Как утверждает газета Financial Times, «Квалификация программистов из Индии, Филиппин, Мексики и других стран не ниже, а иногда и выше квалификации их более высокооплачиваемых коллег из США и Европы, а стоят они иногда на 90% дешевле».

Несомненно, растущее использование дешевого труда программистов из других стран является продолжением известного процесса перевода производственных мощностей за границу. Между этими явлениями можно провести и другие параллели. По мере того как требования компаний к ПО становятся все более стандартными, а программы модульными, разработка ПО перестает быть творческим процессом, постепенно превращаясь в рутинное производство. Так, Ку-мар Махадева (Kumar Mahadeva), руководитель индийской Cognizant, одной из крупнейших аутсорсинговых компаний в сфере ИТ, с гордостью называет свою фирму «заводом». Он утверждает, что жесткие производственные процессы и контроль качества обеспечивают гораздо более высокую эффективность разработки программ по сравнению с традиционными творческими методами работы. Конечно, потребность в творческом начале будет существовать всегда, но в дальнейшем корпоративное ПО, вероятнее всего, будет штамповаться, как обычный товар, безымянными рабочими из разных стран.

Важно отметить, что значительную роль в ускорении процесса коммодитизации ИТ сыграл интернет. Будучи открытой глобальной сетью, он способствовал дальнейшей стандартизации и во многих случаях сделал менее удобным использование проприетарных закрытых систем. Более того, он послужил общим фундаментом для производства и распространения ПО. Интернет дал программистам во всем мире возможность совместно работать в рамках проектов, использующих открытый код, и способствовал привлечению иностранных специалистов к созданию корпоративного программного обеспечения.

Негативно оценивая историческую тенденцию ускорения коммодитизации ПО, в том числе сложнейших бизнес-программ, многие специалисты склонны спорить с очевидным. Придерживаясь традиционного взгляда на программное обеспечение, они утверждают, что новые замечательные программы будут появляться всегда и что гибкость ПО позволяет бесконечно создавать все новые и новые программы. Это верно лишь отчасти. Да, инновации в сфере разработки ПО будут продолжаться, и некоторые из них даже могут получить широкое распространение, но это не означает, что отдельные компании смогут использовать их как собственные, частные корпоративные ресурсы. Тенденции в области разработки нового ПО вовсе не способствуют коммодитизации существующих приложений. Они только обеспечивают быстрое копирование и широкое распространение функциональных возможностей любых новых приложений. Поскольку темпы коммодитизации постоянно растут, привлекательные новые программы (как и привлекательные старые) превратятся в обычную статью затрат на ведение бизнеса.

В конечном итоге программное обеспечение, как и компьютерная техника, может вообще исчезнуть. Вместо запуска определенных программ корпоративные пользователи смогут просто подключаться к сети, мгновенно получая доступ к любым средствам, необходимым в данный момент. В рамках такого видения приложения будут предоставляться через интернет своего рода коммунальными предприятиями на платной основе в зависимости от объема потребления. Конечно, и такое предположение может показаться необоснованным. Однако сочетание широкополосного интернета с программами, которые могут использоваться на любом оборудовании (написанными, к примеру, на языке Java), в некоторых областях уже сделали модель коммунальных услуг в области ИТ реальностью. Например, Salesforce.com за умеренную месячную плату предлагает в интернете приложения для управления отношениями с клиентами (CRM). Пользователям, количество которых уже составляет около 100 тыс., не нужно устанавливать или поддерживать у себя сложные пакеты CRM. Им достаточно только запустить браузер и подключиться к серверам и услугам Salesforce.com. Лозунг компании «Программа успеха, а не успех программы» (Success, Not Software) возвещает о наступлении, может быть, последнего этапа стремительного движения корпоративных программ к коммодитизации - от собственных, частных программ к приложениям, написанным подрядчиками, затем к пакетным решениям и, наконец, к общедоступным платным услугам.

Инновации в области архитектуры.

Разумеется, ИТ включают в себя не только аппаратные средства и программные продукты как таковые, но и способы объединения этих компонентов, или, в широком понимании этого слова, архитектуру управления информацией. Архитектура ИТ далеко не является «застывшей» и продолжает меняться и совершенствоваться прежде всего в процессе адаптации систем поставщиков и пользователей к интернету. Это отличает ИТ от предшествующих инфраструктурных технологий, которые обычно обретали стабильную архитектуру на достаточно раннем этапе своего развития. Как указывают специалисты в сфере информационных технологий Джон Хегель (John Hagel) и Джон Сили Браун (John Seely Brown), «в отличие от предшествующих технологий, которые обычно „застывали" в форме отраслевого стандарта, ИТ-архитектура успела несколько раз измениться и продолжает меняться».

Вопрос в том, создаст ли техническое совершенствование ИТ-архитектуры устойчивые преимущества для отдельных компаний или оно будет быстро включаться в общую инфраструктуру и тем самым становиться доступным для всех? Ответ на этот вопрос возвращает нас к концепции покупки готового ПО у внешних поставщиков (вендоров). Когда закрытые частные сети стали вытесняться открытыми и общедоступными, отдельным компаниям стало невыгодно продолжать разработку собственной ИТ-архитектуры. В результате основные достижения в этой области сейчас создаются поставщиками, имеющими огромные экономические и конкурентные стимулы для активного продвижения своих инноваций для широкого применения и превращения их в отраслевые стандарты.

Рассмотрим, например, один из основных элементов ИТ-архитектуры - способ подключения пользователей и технических средств к сетям. В течение последних лет наблюдался быстрый переход от кабельного соединения к беспроводной связи, обычно основанной на использовании Wi-Fi (wireless fidelity - беспроводная передача информации). Такая связь является одной из многочисленных технических новинок, которую СМИ не без оснований преподносят как «последнее великое открытие». Беспроводное соединение обеспечивает пользователям большую гибкость, а установка и обслуживание соответствующих устройств часто обходятся дешевле по сравнению с обслуживанием кабельной связи.

Однако Wi-Fi - это уже не потенциальный источник преимуществ для отдельной компании, а массовый товар, то есть дешевый универсальный элемент общей инфраструктуры. То, как именно (и как быстро) это произошло, наглядно иллюстрирует ярко выраженную тенденцию к коммодитизации в этой специфической области ИТ. Технология Wi-Fi была создана в середине 1990-х. В конце XX века ведущим производителем микросхем, используемых для обработки сигналов Wi-Fi, была сравнительно небольшая компания Intersil. Однако как только стало очевидно, что Wi-Fi имеет огромный коммерческий потенциал, на этот рынок устремилась компания Intel с дешевым брэндом Centrino. Как пишет The Wall Street Journal, если в 1999 году такой чип стоил приблизительно $50, то к середине 2003-го компания Intel продавала чипы Centrino за $20, теряя, по мнению одного источника, от $9 до $27 на каждой продаже.

Почему компания Intel была готова терпеть убытки? Во-первых, снижение цен до уровня, делающего рынок неприбыльным, позволяет уничтожить новых конкурентов. Однако существовала и более глубокая причина. Широкая доступность беспроводной связи должна была способствовать росту продаж переносных компьютеров (а не стационарных настольных машин) компаниям и физическим лицам, a Intel получает больше прибыли от производства чипсетов для лэптопов, чем от чипсетов для настольных ПК. Иными словами, быстрое превращение беспроводной связи в товар массового потребления отвечает стратегическим интересам данной компании. Как заявил один из руководителей Intel корреспондентам The Wall Street Journal, «мы пытаемся снизить затраты [на внедрение технологии Wi-Fi]». В то же время конкуренция между телефонными компаниями и другими провайдерами беспроводной связи делает ее доступной и дешевой, а подключения Wi-Fi активно устанавливаются в ресторанах, отелях, на автостоянках и в университетах. Жесткая конкуренция между поставщиками ИТ является залогом того, что почти все инновации в архитектуре будут доступными и дешевыми.

Вероятно, более серьезным изменением ИТ-архитектуры следует считать распространение так называемых веб-сервисов. Существует множество различных определений этого понятия, часто обусловленных коммерческими интересами их поставщиков. Однако в основном веб-сервисы - это комплекс программных стандартов и приложений, предназначенных для взаимодействия различных информационных систем через интернет. По сути дела, веб-сервисы обеспечивают стандартный интерфейс для разнородных систем, которые могут подключаться друг к другу и обмениваться данными и приложениями без изменения принципов собственной работы. Тесно связанные с сетевыми вычислениями, веб-сервисы позволяют ликвидировать несовместимость существующих корпоративных компьютеров и приложений, позволяя им более или менее синхронно взаимодействовать. Развитие такой сервис-ориентированной архитектуры будет находкой для многих компаний, так как облегчит использование так называемых унаследованных систем. При этом архитектура будет служить фундаментом для распространения приложений в качестве сервисов в интернете. Компании смогут быстро менять конфигурацию своих информационных систем путем автоматического сочетания модулей от различных внешних поставщиков.

Конечно, все это так или иначе - теория. Жизнь покажет, может ли стать и станет ли реальностью сервис-ориентированная архитектура. Предстоит решить множество технических и управленческих проблем: от разработки комплексных, рациональных стандартов данных до обеспечения безопасности и надежности. Однако то, что некоторые компании уже устанавливают простейшие версии веб-сервисов, а также огромные инвестиции, направляемые в эту область поставщиками, свидетельствует, что хотя бы некоторые элементы технологии веб-сервисов станут частью общей инфраструктуры ИТ.

Впрочем, и здесь источником технических инноваций выступают не пользователи, а поставщики. Если станет очевидным, что сервис-ориентированная архитектура выгодна компаниям, то вполне можно рассчитывать, что она и распространяемые через нее сервисы быстро станут общедоступными. Действительно, поскольку контроль над распространением корпоративных приложений сосредоточивается в руках внешних провайдеров веб-сервисов, последние могут стать высшим проявлением тенденции превращения ИТ в разновидность коммунальных услуг. Это не означает, что индивидуальные особенности использования новой инфраструктуры не будут создавать возможностей для дифференциации компаний, по крайней мере на короткий срок. Однако, как свидетельствует история, по мере распространения и копирования передового опыта унифицируются и способы применения новой технической инфраструктуры.

Как бы ни сложилась судьба веб-сервисов, те или иные инновации в архитектуре по-прежнему будут иметь место, поскольку поставщики борются за то, чтобы сделать ИТ-инфраструктуру более стабильным, гибким и надежным инструментом бизнеса. Такие инновации могут принести огромную выгоду, но при этом быстро станут общим достоянием. Описывая эволюцию корпоративной ИТ-архитектуры, руководитель компании Sun Microsystems Скотт Макнили (Scott McNealy) использует удачную аналогию с автомобилями. По его словам, раньше каждой компании приходилось конструировать свой уникальный «драндулет», покупая разнородную технику, аппаратные и программные средства и создавая собственную архитектуру. Но сейчас начинается новая эра: компании будут просто пользоваться «услугами такси» за счет лизинга готовой, целостной архитектуры у внешнего подрядчика. Эти изменения сулят значительное увеличение производительности и доступности ИТ-архитектуры, но уменьшат ее стратегическую значимость. Создание «собственного драндулета уникальной конструкции» обходилось недешево, но по крайней мере позволяло сделать его в ряде случаев лучше «драндулетов» конкурентов. А вот «вызывать такси» одинаково удачно умеют все.

Хватит - значит хватит.

Одним из главных мифов ИТ-бизнеса является миф о том, что он никогда не превратится в зрелую отрасль. Технический прогресс не знает границ, а инновации могут и будут уничтожать все препятствия для роста и успеха. Даже Эрик Шмидт (Eric Schmidt), руководитель компании Google, который собирает свои системы из дешевых компонентов, провозглашает, что единственный способ для поставщиков ИТ оправиться от спада начала XXI века - это «сделать то, что они отлично умеют: разработать новое грандиозное видение». Ощущение вечной молодости вполне оправданно и, может быть, даже необходимо для бизнеса, движущей силой которого является предпринимательская активность и безжалостная конкуренция. Но это всего лишь миф.

Несмотря на миллионы могучих процессоров, бесконечные мили оптоволоконных кабелей и миллиарды строк сложнейших программ, на концептуальном уровне коммерческая ИТ-инфраструктура не так уж сложна. Для решения отдельных практических задач, связанных с ведением бизнеса, она требует механизмов для хранения больших объемов цифровых данных, быстрой их передачи в нужное место, доступа пользователей к данным и их обработки. В какой-то момент существующей компьютерной техники и программного обеспечения будет достаточно, то есть они смогут достаточно хорошо выполнять большинство необходимых функций для решения основных задач. Дальнейшее совершенствование будет привлекать все меньшее число пользователей, обеспечивая все более неопределенные и неустойчивые преимущества.

На самом деле такой момент уже наступил. В статье, опубликованной в 2000 году в Journal of Economic Perspectives, экономист из бостонского Северо-восточного университета Роберт Гордон (Robert Gordon) утверждает, что обычно компании получают максимум выгоды на начальных стадиях компьютеризации, после чего практическая отдача от дальнейшего совершенствования технологии резко сокращается. Анализ, проведенный Гордоном, позволил ему прийти к выводу, что «второй отличительной чертой развития компьютерной индустрии (после тенденции к снижению цен) является небывалая скорость падения доходов». «Вполне возможно,- заключает он,- что важнейшие способы использования компьютеров были открыты не сегодня, а более десяти лет тому назад».

Безусловно, эту точку зрения разделяют не только теоретики. Многие руководители компаний предпочитают эффективно использовать действующие ИТ-активы, избегая масштабного инвестирования в новые технологии. Их прагматичный подход также отражает растущее ощущение того, что инвестиции в ИТ достигли точки, после которой отдача начинает падать. Тони Компер (Tony Comper), председатель правления и руководитель ВМО Financial Group, одной из крупнейших американских финансовых организаций, считает, что «два основных конечных потребителя продукции его компании - клиенты и сотрудники - реально используют ИТ не более чем на 20% (и такая оценка еще является завышенной), а остальная часть инвестиций практически не приносит отдачи». Далее он дает такую откровенную оценку современной роли ИТ: «Как и большинство компаний, имеющих высокий кредитный рейтинг уровня А, ВМО Financial Group обладает почти всеми базовыми технологиями, необходимыми сегодня для успешной конкуренции».

Это неутешительный вывод для тех представителей отрасли, которые убедили себя в том, что выгода от использования ИТ будет расти бесконечно. Но вряд ли это плохо. То, что главные ИТ-инновации в области бизнеса уже в прошлом, говорит не о неудаче, а об успехе отрасли. Благодаря смелым инновациям и неукротимому духу предпринимательства в очень короткие сроки была создана новая инфраструктура бизнеса, которая сегодня может быть использована всеми компаниями и приносить пользу всему населению. Несомненно, мы еще станем свидетелями полезных, а иногда и замечательных усовершенствований в области этой инфраструктуры, как это было с железными дорогами, электричеством и телефонной связью. Многие из этих инноваций будут быстро взяты на вооружение целыми отраслями, повысят эффективность производства и качество продукции, а также позволят более полно удовлетворять нужды потребителей. Однако они не изменят присущий информационной технологии товарный характер и новую реальность ИТ в бизнесе.