Революция в аналитике. Как в эпоху Big Data улучшить ваш бизнес с помощью операционной аналитики - Билл Фрэнкс
Шрифт:
Интервал:
Закладка:
Определяющая характеристика № 3: операционная аналитика принимает решения. Ее процессы не только предписывают или рекомендуют, но и принимают решения, а затем выполняют действия, которые из них вытекают. Этим она в корне отличается от традиционной аналитики, где анализ производит рекомендации, а человек решает, принять их или отклонить: смотрит на результаты анализа и принимает окончательное решение, на основании которого выполняются дальнейшие действия.
Определяющая характеристика № 4: операционная аналитика осуществляется в пределах «времени принятия решения». Во многих случаях оно соответствует реальному времени. В некоторых случаях аналитика применяется к входящему потоку, а не к хранилищу данных. Операционная аналитика не может позволить себе ждать до следующего сеанса пакетной обработки – она должна осуществляться немедленно, чтобы принять решение и исполнить его.
Определяющие характеристики операционной аналитикиОперационная аналитика – это интегрированные автоматические процессы принятия решений, предписывающие и реализующие действия в пределах «времени принятия решения». Как только операционно-аналитический процесс получает одобрение и запускается, он начинает автоматически принимать тысячи или миллионы решений.
Добывать новые знания при помощи аналитики – это замечательно. Но после того как знания обнаружены среди данных, предстоит сделать важный шаг – наилучшим образом применить их аналитически. Разработать процесс, который будет воспроизводить новые знания, масштабировать их, а затем подкреплять ими решения – и все это почти в режиме реального времени, – очень трудно. Таким образом, центральная роль по-прежнему остается за человеком. Кто-то должен разрабатывать, выстраивать, конфигурировать и контролировать операционно-аналитические процессы. Компьютеры сами по себе не смогут принимать решения.
Важный момент, который стоит лишний раз подчеркнуть, состоит в том, что операционная аналитика представляет собой новую ступень эволюции аналитических технологий. Организация не может сразу же перепрыгнуть на уровень операционной аналитики, пока не овладеет мастерством традиционного пакетного анализа. Кроме того, как мы обсудим в шестой главе, операционно-аналитические процессы требуют тщательного тестирования перед запуском, поскольку автоматизированные плохие решения могут нанести серьезный ущерб. Прежде чем система начнет принимать миллионы микрорешений, необходимо убедиться в том, что они будут высокого качества.
Добро пожаловать в Аналитику 3.0!
Эволюция аналитики с течением времени хорошо отражена в концепции Аналитики 3.0, разработанной Международным институтом аналитики (International Institute for Analytics, IIA) и его руководителем научных исследований Томом Дэвенпортом{2}. Я преподаю в IIA, поэтому мне посчастливилось участвовать в обсуждении концепции на начальных этапах ее разработки. Давайте рассмотрим, в чем именно она заключается, поскольку это позволит нам увидеть эволюцию операционной аналитики в более широкой перспективе. Знание того, что и как менялось в мире аналитики на протяжении его истории, поможет нам понять, почему операционная аналитика готовится занять господствующее положение.
Аналитика 1.0: традиционная аналитика
Эпоха Аналитики 1.0 на протяжении многих лет охватывала все действия организаций в сфере аналитики. Я говорю об Аналитике 1.0 в прошедшем времени, поскольку организациям следует оставить этот подход в прошлом, если они этого еще не сделали. Как показано на рис. 1.1, Аналитика 1.0 в очень большой степени опиралась на описательную статистику и отчетность с редкими вкраплениями прогностической аналитики. Предписывающей аналитики тогда не существовало. Что касается данных в эпоху Аналитики 1.0, то они поставлялись почти исключительно из внутренних источников и были хорошо структурированы. Они включали все данные, связанные со сделками организации, информацию из систем управления предприятия и т. п. Хотя в то время эти данные считались невероятно большими и сложными для обработки, по сегодняшним меркам они являются относительно малыми и простыми. Данные собирались и хранились ИТ-отделом и предоставлялись по запросу. К сожалению, чтобы сделать данные доступными для анализа, ИТ-специалистам требовалось довольно много времени. Все это ограничивало широту и глубину применения аналитики, а также ее воздействие.
Что еще хуже, когда аналитики наконец-то получали эти данные, то, прежде чем приступить к анализу, им требовалось проделать еще массу дополнительной подготовительной работы. Дело в том, что в корпоративных системах данные редко хранятся в формате, пригодном для анализа. Выстраивание аналитического процесса требовало разного рода преобразований, агрегирования и комбинирования данных из различных источников. Все это еще больше увеличивало временной промежуток между моментом, когда ИТ-специалисты делали данные доступными, и моментом получения результатов. Таким образом, время в эпоху Аналитики 1.0 тратилось на сбор данных, а не собственно на анализ.
С точки зрения организационной культуры профессиональные аналитики относились к секретным сотрудникам. В большинстве случаев они были изолированы как от бизнеса, так и от информационных технологий. Их считали чокнутыми учеными, которые иногда могли предложить интересные идеи. Они не входили ни в какие другие команды, кроме собственной. (Подробнее мы рассмотрим эту тему в восьмой главе.) Почти все разрабатываемые ими аналитические процессы предназначались для поддержки внутренних решений. Клиенты или пользователи продукции редко, если вообще когда, были осведомлены об этой закулисной аналитике.
Организации должны оставить Аналитику 1.0 в прошломАналитика 1.0 на протяжении многих лет играла крайне полезную роль. Но в сегодняшней экономической ситуации необходимо подключать дополнительные возможности и использовать новые подходы. Оставьте Аналитику 1.0 в прошлом.
Традиционные технологии, такие как бизнес-аналитика и инструменты отчетности, использовались для создания широкого диапазона отчетов, панелей управления и оповещений. Но даже простые отчеты создать было не так просто. Для этого требовалось, чтобы специалист из центрального аналитического отдела узнал требования пользователя, составил отчет и представил его в пригодной для просмотра форме. Процесс был длительным и формализованным, и очень немногие пользователи могли создавать такие отчеты самостоятельно. Встречались и вкрапления прогностической аналитики, но эпоха Аналитики 1.0 по большей части опиралась на описательную аналитику и отчетность.
Ирония состояла в том, что потребности в более оперативной аналитике и отчетности не существовало, поскольку сам бизнес не мог реагировать на них намного быстрее. В начале моей карьеры при разработке модели кампании прямой рассылки мы использовали данные трех-четырехнедельной давности для определения домохозяйств, которые следует включить в рассылку. Затем составленный нами список отправлялся в отдел рассылки, а ему требовалось еще две недели, чтобы напечатать рекламные материалы и отправить их по указанным адресам. Наконец, проходила еще неделя, прежде чем письма доставлялись в почтовые ящики адресатов. Это означало, что между моментом сбора данных и тем временем, когда результаты анализа могли повлиять на клиентов и бизнес, проходило шесть, а то и восемь – десять недель. Ускорять аналитические процессы не имело смысла, поскольку рассылки осуществлялись по фиксированному месячному графику и списки требовались с той же регулярностью. Легко понять, почему в такой среде многие аналитические процессы не реализовывали свой потенциал в полной мере.
Аналитика 2.0: аналитика больших данных
В начале 2000-х началась эпоха Аналитики 2.0, открывшая перед нами мир больших данных{3}. Они во многих отношениях были новинкой – зачастую гораздо объемнее и сложнее, чем данные, которые использовались в эпоху Аналитики 1.0, и при этом необязательно так же структурированные. Большие данные могли включать в себя все что угодно – от документов, фотографий и видео до сенсорных данных. Множество больших данных, используемых для анализа, поступают из внешних источников, например социальных сетей. Несмотря на свое внешнее происхождение, они могут оказаться очень ценными.
Сегодня, в эпоху Аналитики 2.0, как видно на рис. 1.2, мы обнаружили, что для обработки больших данных и выполнения разнообразных аналитических процессов нам нужны новые аналитические технологии и новые вычислительные возможности. В результате из забвения на свет вышли такие технологии, как Hadoop (о ней мы расскажем позднее), а аналитические процессы были модернизированы, чтобы соответствовать этим новым технологиям. Основное внимание в эпоху Аналитики 2.0 сосредоточено на поиске наиболее дешевых способов сбора и хранения необработанных данных, а уже затем на поиске способов их применения.