Актуальність роботи зумовлена стрімким розвитком Інтернету речей (IoT) і туманних обчислень, що створює нові виклики та можливості для розподілу обчислювальних ресурсів і оптимізації продуктивності в мережах із високою щільністю пристроїв та інтенсивними навантаженнями. Зростаючий обсяг даних, що генерується IoT-пристроями, вимагає нових методів обробки та передачі інформації, особливо для завдань, що потребують великої обчислювальної потужності та низької затримки [1–4]. Використання туманних обчислень дозволяє зменшити затримку і знизити навантаження на хмарні ресурси шляхом обробки даних ближче до джерела їх створення, тобто на граничних або туманних вузлах [3, 5].
У сучасних дослідженнях велика увага приділяється розподілу завдань між пристроями IoT, туманними вузлами та хмарними серверами з метою зниження енергоспоживання і підвищення ефективності систем [4]. Для цього розробляються методи на основі метаевристичних алгоритмів і машинного навчання, які забезпечують оптимальне використання обчислювальних ресурсів, адаптуючись до динамічних умов мережі та вимог додатків [1, 7]. Деякі роботи пропонують рішення для обробки енергоємних задач у мобільних мережах із використанням методів розподілу обчислень на основі алгоритмів глибокого підкріплення [8].
Крім того, актуальність цієї роботи підкріплюється потребою в розробці ефективних стратегій управління енергоспоживанням у туманних обчисленнях, що є критичним фактором для забезпечення тривалої автономності пристроїв IoT і мінімізації загальних витрат на обчислення [9].
У дослідженні використано підходи до оптимізації передачі обчислень, що зменшують затримки і підвищують ефективність обробки великих обсягів даних в умовах обмежених ресурсів [6].
Парадигма периферійних обчислень у поєднанні з штучним інтелектом вважається перспективною технологією в сфері IoT. Для ефективного навчання в інтерактивних середовищах та прийняття автономних рішень можна досліджувати методи машинного навчання, що використовують цілочисельне лінійне програмування. Ці методи застосовують математичні методи оптимізації для моделювання проблем прийняття рішень та забезпечують оптимальний вибір на основі обмежень та цілей. Хоча підкріплювальне навчання є ефективним підходом для навчання в інтерактивних середовищах, цілочисельне лінійне програмування пропонує додатковий метод оптимізації прийняття рішень та розподілу завдань у екосистемі IoT. Передача обчислювальних завдань на основі цілочисельного лінійного програмування у периферійних обчисленнях є методом ефективного використання доступних обчислювальних ресурсів на межі мережі. Потреба в цьому методі зменшення затримки в системах периферійних обчислень стала рушійною силою його розробки. На відміну від передачі даних до централізованого хмарного середовища, в периферійних обчисленнях дані обробляються на місці або поруч із точкою їх походження. Цей метод має потенціал значного підвищення продуктивності системи шляхом зменшення затримок. Проте, обчислювальні ресурси в периферійних мережах часто обмежені, а їх розподіл має великий вплив на продуктивність системи. Оптимізаційні засоби, коли застосовуються до периферійних обчислень, можуть покращити управління ресурсами, спираючись на відомі рішення. Оскільки навантаження та доступні ресурси змінюються в реальному часі, система може навчитися передавати завдання на найкращі обчислювальні ресурси.
Розподіл обчислювальних ресурсів між системами туманних обчислень та IoT-пристроями є ключовим завданням для забезпечення ефективності, низької затримки та оптимального використання ресурсів у сучасних мережах. Використання методів цілочисельного лінійного програмування, машинного навчання та алгоритмів підкріплення дозволяє адаптуватися до динамічних умов мережі, забезпечуючи енергоефективність і автономність пристроїв IoT. Запропоновані підходи дозволять підвищити продуктивність системи за рахунок зменшення затримок і покращення управління ресурсами, що є важливим для розвитку технологій периферійних обчислень у високонавантажених середовищах.
Література
1. Almadhor A., Alharbi A., Alshamrani A.M., Alosaimi W., Alyami H. A new offloading method in the green mobile cloud computing based on a hybrid meta-heuristic algorithm. Sustainable Computing: Informatics and Systems. 2022. 36. 100812.
2. Li C., Zuo X., Mohammed A.S. A new fuzzy-based method for energy-aware resource allocation in vehicular cloud computing using a nature-inspired algorithm. Sustainable Computing: Informatics and Systems. 2022. 36. 100806.
3. Huang J., Gao H., Wan S., Chen Y. AoI-aware energy control and computation offloading for industrial IoT. Future Generation Computer Systems. 2023. 139. 29–37.
4. Gasmi K., Dilek S., Tosun S., Ozdemir S. A survey on computation offloading and service placement in fog computing-based IoT. The Journal of Supercomputing. 2022. 78(2). 1983–2014.
5. Seid A.M., Lu J., Abishu H.N., Ayall T.A. Blockchain-enabled task offloading with energy harvesting in multi-UAV-assisted IoT networks: A multi-agent DRL approach. IEEE Journal on Selected Areas in Communications. 2022. 40(12). 3517–3532.
6. Raza K., Patle V., Arya S. A review on green computing for eco-friendly and sustainable IT. Journal of Computational Intelligence and Electronic Systems. 2012. 1(1). 3–16.
7. Shakarami A., Ghobaei-Arani M., Shahidinejad A. A survey on the computation offloading approaches in mobile edge computing: A machine learning-based perspective. Computer Networks. 2020. 182. 107496.
8. Zhu X., Luo Y., Liu A., Bhuiyan M.Z.A., Zhang S. Multiagent deep reinforcement learning for vehicular computation offloading in IoT. IEEE Internet of Things Journal. 2020. 8(12). 9763–9773.
9. Malik R., Vu M. Energy-efficient computation offloading in delay-constrained massive MIMO enabled edge network using data partitioning. IEEE Transactions on Wireless Communications. 2020. 19(10). 6977–6991.
|