Архив метки: HCM

HANA & декластеризация в SAP HR

Резонный вопрос, который я много раз слышал от бизнеса: “Зачем мне переходить на HANA и тратить кучу денег, если я ничего не получу взамен”? Чтобы ответить на этот вопрос, следует посмотреть на него с разных углов. Базы данных на классической архитектуре и InMemory отличаются друг от друга примерно как автомобили разного поколения. Оба автомобиля работают на двигателях внутреннего сгорания, оба могут перемещаться по твердой поверхности, но скорость передвижения, запас мощности и комфорт существенно отличаются. Не совсем корректным будет оценивать переход на новую базу данных как простую смену резины – вроде как нужно обновлять резину каждые три-четыре года, чтобы сцепление с дорогой не терять. Когда мы говорим о таком переходе, то меняется не только начинка для ИТ-специалистов, когда “что-то там” начинает быстрее работать, но и “дом, стоящий на фундаменте” становится умнее. Изменение технологий “внизу” всегда провоцирует изменение бизнес-приложений “наверху”. Мало кто помнит скорость разработки приложений на языке машин ассемблере, когда многие слышали про язык программирования Swift для детей от компании Apple. В скором будущем мы сможем диктовать функции приложений и компьютеры будут самостоятельно синтезировать приложения для нас. HANA дает колоссальный прирост в скорости работы, не всегда, не во всех ситуациях, но для конечного пользователя – зачастую всегда.
Чем HANA интересная для HR бизнеса? На текущий момент я могу выделить несколько ключевых аспектов. Скорость обработки данных и формирование отчетов. В классической SAP HCM системе данных хранятся в так называемых кластерных таблицах. Это своего рода чемодан, где лежат другие чемоданчики, а внутри этих чемоданчиков лежат вещи, которые нам нужны. Если нужно что-то достать, то нужно найти большой чемодан на стеллаже, в нем найти нужный маленький чемоданчик и там найти нужный нам предмет. А таких чемоданчиков целый склад и все на стеллажах. Системе приходится очень долго бегать по складу и искать нужные чемоданы, а в них наши вещи. С переходом на HANA все маленькие чемоданчики извлекаются из больших, все вещи штрихкодируются и сразу же складываются в маркированные ячейки на стеллажах того же склада. Теперь системе не нужно открывать множество вложенных друг в друга чемоданчиков, можно по каталогу найти нужную ячейку и взять необходимый предмет. Скорость поиска данных, складирования данных возрастает в разы.
Для чего нужны такие скорости в HR? – спросите Вы. Попробуем перейти к глобальным компаниям, где в HR системе хранится и обрабатывается более ста тысяч табельных номеров. Расчет заработной платы на таком объеме может занять целый день при неплохо спроектированной системе. HANA позволит сократить это значение до нескольких часов. Это означает, что расчетный период при реализации комплекса мер может быть сокращен на целый день, а то и больше. Многие компании задумываются  о сокращении сроков закрытия финансового периода, чтобы предоставлять оперативную информацию акционерам как можно быстрее. Если HR может помочь сэкономить целый день, то это уже неплохо. С каждой бизнес-функции и неделя наберется. Уверен, что вы знаете про Payroll Control Center, в идеологию которого заложен такой механизм, как контроль качества данных. Мы можем заложить в процесс расчета заработной платы автоматизированные контрольные процедуры, которые благодаря новой архитектуре смогут очень быстро получать выборки данных в различных разрезах и указывать пользователю на ошибки или отклонения. Из того что на слуху, система может проверить наличие всех заполненных инфотипов, отсутствие значимых отклонений по каждому сотруднику в сравнении с предыдущим периодом или тем же периодом в прошлом году, проверить общие отклонения по фондам времени и заработной платы. Даже такие простейшие вещи экономят значимое количество времени.
Отчеты – то, что любит любой HR-человек от специалиста до руководителя высшего звена. Бизнес часто слышит, что нет такого отчета, другой отчет медленно работает, третий нужно подождать, пока BW “прогрузит данные ночью” и так далее. С изменением архитектуры и скорости получения данных системой из базы данных изменились и подходы к формированию отчетности.
Второй аспект, это упрощение модели доступа к данным для внешних сервисов. Мы перешли в эру микросервисов, когда человек/компания может создать сервис, который выполняет только одну задачу, но делает это чертовски хорошо. И такие сервисы собирают весь куш – клиенты к ним тянутся. Но такие сервисы не могут существовать без инфраструктуры – источников информации и потребителей информации. Сервис лишь преобразует одну информацию в другую, создавая ценность. Например, сервис страховой компании по выдаче полисов добровольного медицинского страхования получает информация от страхователя по всем сотрудникам, обрабатывает и возвращает страховые полисы. Эта простейшая задача требует доступа к данным. Если опустить технические прослойки в виде различных API сервисов, разграничения доступов, интерфейсов, то для HR функции простая модель хранения данных в системе, возможность быстро получить к ней доступ означает потенциальный выигрыш во времени. Наличие стандартизированного интерфейса открывает доступ микросервисов, предоставляющих услуги этой компании. Пенсионный фонд или налоговая инспекция самостоятельно могут получить данные для обработки. Сегодня это утопия, к вечеру уже реальность.
Переход к BigData в HR является третьим ключевым аспектом. Что такое большие данные? Это огромные массивы информации, среди которых правильно поставленные вопросы могут найти интересные ответы. Чтобы увидеть закономерности в данных необходимы простейшие модели этих самых данных (все сложное декомпозируется до простого), инструменты для анализа массивов и постановки вопросов системе и, безусловно, оперативный доступ к данным, над которыми производится анализ. Невозможно заниматься анализом, если отчеты по сотням миллионов строк формируются днями. Появление новой записи должно обогащать модель, а не заставлять систему заново формировать отчет.