Обновить ПО и установить драйвер
В 2005 легальные способы приобретения программ, мягко говоря, не пользовались популярностью. Если некоторые предприятия все же покупали Windows и профессиональный софт, то рядовые пользователи чаще всего предпочитали экономить на интеллектуальной собственности производителей ПО. Что удивительно, пиратство иногда решало проблему с установкой драйверов — в ходу были сборки ОС, включавшие в себя все необходимое для начала работы.
После того как народные умельцы научились обходить активацию Windows, Microsoft создали технологию [WGA|Windows Genuine Advantage], которая препятствовала ряду обновлений и старательно напоминала о необходимости активации. Что до обновления прикладных программ, оно происходило скорее случайно. Основным источником обновлений были пиратские сайты и сборники софта, реже — официальные страницы бесплатных программ.
Альтернативы Windows в 2005 году — редкость, даже Линукс в то время считался уделом энтузиастов. Можно было найти Mandrake Linux, при желании — Ubuntu. Эти ОС предусмотрительно комплектовались куда большим набором софта: к примеру, Mandrake, став Mandriva, поставлялся на трех CD. Впрочем, из-за скорости соединения обновляли это ПО единицы.
С обновлениями на серверах ситуация была чуть лучше: как минимум, был доступ к сети, пусть для предприятий обходился он довольно дорого. В крайнем случае на Unix-системах можно было скачать исходный код необходимого ПО и собрать его локально.
Николай Рубанов, специалист технической поддержки → старший технический писатель Selectel:
Я прекрасно помню те времена, когда для передачи данных использовались Dial-up каналы связи со скоростями от 9600 bod (9.6 kbps) до 56 kbps. Чтобы получить свежий дистрибутив Ubuntu, я писал запрос в Canonical, и мне его присылали по обычной почте на компакт-дисках. Сейчас любой дистрибутив операционной системы можно скачать за пару минут, а емкость каналов в современных дата-центрах может составлять уже терабиты в секунду. Вскоре нас ждут петабитные сети, первый сетевой узел с такими скоростями уже запущен в Японии.15 лет назад, установив ОС на компьютер или сервер, приходилось тратить приличное количество времени на определение, поиск и установку соответствующих драйверов устройств. Сейчас с этим все просто. Windows 10 сама определяет и скачивает из интернета правильные драйверы, а в случае Linux большинство драйверов включено в ядро ОС.
Запустить виртуальную машину или контейнер
Увы, привычных нам виртуальных машин в 2005 не было. Для ограничений доступа на серверах использовался, к примеру, chroot. Однако у этого подхода есть свои минусы. Существует немало способов повышения привилегий при chroot-доступе: так как в пространство пользователя монтируется часть хоста, при достаточной удаче и сноровке можно было выбраться из «песочницы».
Помимо chroot существовала практика предоставления хостинга для нескольких пользователей одновременно — порой один сервер делили между собой сотни пользователей. В таких ситуациях всего один уязвимый сайт мог привести к большим проблемам.
Аппаратная виртуализация — одна из важнейших технологий, изменивших мир IT. Сегодня с помощью контейнеров и виртуальных машин решают множество задач: от хостинга до разработки и тестирования ПО.
Николай Рубанов, специалист технической поддержки → старший технический писатель Selectel:
Изоляция приложений на уровне операционной системы известна еще с начала 1980-х годов. Механизм chroot, встроенный в большинство Unix-подобных систем, позволял изменить корневой каталог для приложения, а следовательно — создать «песочницу» для запуска любой программы.В ОС FreeBSD в 2000 году на основе chroot появился механизм изоляции, известный как Jail («тюрьма» или «клетка»). Это позволяло внутри одной ОС создать несколько независимых рабочих копий этой же ОС на том же ядре. Спустя 5 лет эту тему подхватила компания Sun Microsystems, внедрив похожий механизм в своей Solaris 10.Мало кто знает, что даже для Windows XP существовала своя версия изоляции окружения, реализованная непосредственно на ядре при помощи программы iCore Virtual Accounts. Таким образом можно было запускать различные программы, даже вредоносные, не рискуя повредить основную ОС.Несмотря на то, что зачатки технологии виртуализации появились в процессорах уже давным-давно, их практическое применение было весьма ограничено. Так что развернуть несколько операционных систем внутри одной было задачей почти невыполнимой. На сегодняшний день никого не удивляет несколько операционных систем, запущенных параллельно.Тогда не существовало технологий аппаратной виртуализации (Intel VT-d, AMD-V). Первые процессоры с такими технологиями появились после 2005 года. Задача запустить виртуальную машину с ОС тогда была почти невыполнима, потому что программная виртуализация существовала, но это было крайне медленным и нестабильным способом параллельного запуска нескольких ОС.