这是一个基于深度强化学习(Deep Reinforcement Learning)的资源分配算法,它能够根据用户信道条件的好坏,动态地分配子信道和传输功率,最大化非正交多址调制(NOMA)系统的能量效率。 本项目基于Deep Q Learning Network(DQN)和Deep Deterministic Policy Gradient(DDPG)算法。
如果你是机器学习,特别是深度强化学习的新手,又正好在进行通信邻域的智能算法的研究,那么本项目是你了解强化学习算法的不二之选!当然,强化学习的优势之一就是它可以被轻易地迁移到其他应用场景之中。因此,如果你是别的邻域的研究人员,相信本项目一样对你有参考价值。
如果你想进一步了解此算法的理论原理,欢迎查阅我的论文,IEEE链接:https://ieeexplore.ieee.org/document/8927898/
首先确保你安装了Python,以及下列库文件:
numpy:https://numpy.org/ 用于对矩阵,列表等数据进行处理。
pandas:https://pandas.pydata.org/ 一样是用于对数据进行处理,特别是对csv文件进行导出和导入。
tensorflow:https://tensorflow.google.cn/ 机器学习的核心库文件。
keras:https://keras.io/zh/ 一个基于Python的高级神经网络API。
克隆本项目的代码到你喜欢的任意位置。然后,你只需要打开根目录下的run.py文件,即可以轻松运行! (Note:在Pycharm下记得选择正确的Project Interpreter)
本项目通过深度强化学习算法,得到每个时隙下,适合用户信道状态的子信道分配和功率分配方案。之后,在控制台Print出所有用户的能量效率之和作为结果。 所以,当你在控制台能够看到有"DQN_rate: xxxxx"的结果输出,说明你的安装步骤正确。
本项目后续还将继续添加DDPG等更高级的深度强化学习算法......
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。