Учёные факультета вычислительной математики и кибернетики МГУ имени М. В. Ломоносова разработали новый метод анализа алгоритмов. Он позволяет точнее измерять производительность информационных систем, принимая во внимание влияние случайных факторов. Об этом сообщает ТАСС.
Созданная специалистами модель оценивает временную сложность вычислительных алгоритмов при работе с базами данных в условиях неопределённости входных данных.
В МГУ отметили: «Предложенная модель может быть полезна при проектировании и оптимизации алгоритмов обработки данных, а также при анализе производительности информационных систем, где важны не только худшие или средние оценки, но и вероятность возникновения задержек».
Традиционные методы оценки рассматривают алгоритмы в рамках фиксированных сценариев выполнения. Однако на практике это не отражает реальной картины: при работе с базами данных и распределёнными системами время выполнения алгоритма зависит от случайных факторов — структуры запросов, порядка доступа к данным и особенностей взаимодействия компонентов системы.
Профессор кафедры математической статистики ВМК МГУ Андрей Борисов пояснил: «Использование стохастических моделей позволяет более точно описывать временную сложность вычислительных задач в условиях взаимодействия с базами данных. Такой подход даёт возможность учитывать реальные сценарии работы вычислительных систем и оценивать их поведение не только в теории, но и в прикладных условиях».
Результаты исследования опубликованы в журнале Journal of Computer and Systems Sciences International.
