一种深度强化学习联合无监督学习的D2D网络分布式资源分配方法

阅读: 评论:0


一种深度强化学习联合无监督学习的d2d网络分布式资源分配方法
技术领域
1.本发明涉及一种深度强化学习联合无监督学习的d2d网络分布式资源分配方法,属于无线通信技术领域。


背景技术:



2.在当今的无线网络中,随着移动设备的日益增多,用户对高数据传输服务需求不断增加。大量的数据流量需要通过网络传输,导致无线网络出现了流量过载等问题。为了提高无线网络的性能,运营商通常在多频段部署更多,以缓解移动通信阻塞问题,但这也导致了巨大的成本支出。device-to-device(d2d)技术的提出,实现了设备之间的直接通信,以低成本为卸载繁重的移动通信量。通常,d2d用户可以在覆盖模式下共享蜂窝网络的频谱资源,虽然d2d用户不会对蜂窝设备造成干扰,但d2d用户对之间会造成严重的干扰。
3.为了降低d2d用户对信道间的相互干扰,研究者对基于信道的选择和功率分配问题开展了广泛的研究。通过获取全局信道状态信息(csi)的不同,可以分为集中式与分布式的两类模型。集中式模型需要瞬时全局的csi,而分布式只需要少部分的csi。在诸多集中式与分布式模型方法中,由于深度学习技术较传统算法计算复杂度较低,已被广泛用于解决d2d网络中的资源分配问题。
4.当前d2d网络无线资源分配研究现状如下:
5.(1)集中式模型:目前集中式d2d网络无线资源分配已提出了诸多算法和理论,其中最先进的优化算法有分数规划算法(fp)、加权最小均方误差(wmmse)算法和基于深度学习的无线资源分配优化算法。但在实际中,信道状态信息是实时改变的,获取完整的瞬时全局状态信息需要实施大规模的信息交换,对于当前的设备而言是一个巨大的挑战。故集中式模型中的大多数算法都不适用于实际的大型网络场景中。
6.(2)分布式模型:分布式模型的提出能够更好的考虑实际无线网络信息中的及时性和相关性。在分布式模型中,令每一个发射机为一个智能体,通过智能体与智能体之间的信息交互,做出决策。在强化学习中,状态、行为和奖励都需要满足马尔可夫决策过程,状态会根据奖励回报迭代更新。在当前基于深度强化学习的分布式d2d网络无线资源分配中,一般会将信道分配和功率控制作为行为,将智能体之间交互的信息例如信道增益、干扰等作为状态,将优化的目标作为奖励。在当前应用场景中通常会使用强化学习方法深度q-learning(dqn)或者深度确定性策略梯度(ddpg)。在使用dqn在信道选择和功率控制中,dqn很难适用于既包含离散变量又包含连续变量的问题。而使用ddpg在信道选择和功率控制中,ddpg的确定性策略高度依赖于q值预估的准确性,当神经网络开始学习时,由于网络权重初始化,导致q值的预估值不理想,并且随着神经网络规模的增加,ddpg训练效果变差。以上两方面的缺陷降低了ddpg的确定性策略在动作探索上的效率,从而在采用ddpg进行物理层的连续功率分配中,无法有效和快速地提高频谱利用率。
7.综上所述,在实现d2d网络最大化传输速率上,现有的集中式与分布式方法不能够有效的降低d2d用户对之间的干扰,提高网络性能。


技术实现要素:



8.本发明提出了一种深度强化学习联合无监督学习的d2d网络分布式资源分配方法,通过使用强化学习进行信道分配,深度无监督学习进行信道功率控制,以最大化传输速率、有效增加网络容量、提升d2d网络性能,从而解决现有技术中收敛速度低、传输速率小的问题。
9.一种深度强化学习联合无监督学习的d2d网络分布式资源分配方法,深度强化学习联合无监督学习的d2d网络分布式资源分配方法包括以下步骤:
10.s100、构建信道分配神经网络,在发射机智能体上分布式执行;信道分配神经网络的输入为发射机智能体所收集到的所有m个信道的本地信息集,信道分配神经网络的输出为m个适应值,将最大适应值所对应的信道确定为信道分配方案;
11.s200、构建信道功率控制神经网络,在发射机智能体上分布式执行;根据s100的信道分配方案,确定此信道分配方案所对应的一组本地信息集;信道功率控制神经网络的输入为确定的一组本地信息集,通过对信道功率控制神经网络输出层的输出进行约束,得到功率控制方案;
12.s300、对s100中信道分配神经网络进行基于深度强化学习的集中式训练,将集中训练后的信道分配神经网络参数传递给各个发射机中的信道分配神经网络,对各个发射机中的信道分配神经网络的参数进行更新,使更新后的信道分配神经网络继续在各个发射机智能体上分布式执行;
13.s400、对s200中信道功率控制神经网络进行基于深度无监督学习的集中式训练,将集中训练后的信道功率控制神经网络参数传递给各个发射机中的信道功率控制神经网络,对各个发射机中的信道功率控制神经网络的参数进行更新,使更新后的信道功率控制神经网络继续在各个发射机智能体上分布式执行。
14.进一步的,在s100中,信道分配神经网络包括一个输入层、多个全连接隐层和一个输出层,一个输入层、多个全连接隐层和一个输出层依次连接,其中,
15.输入层的维度为m
×
q,其中m为d2d用户对所共享的正交信道数量,q为在每个信道上与发射机智能体有关的本地信息集合中的元素个数;本地信息集包括t时隙所有m个信道的信道增益和t-1时隙发射机在所有m个信道对其所有干扰邻居的干扰等,共有m
×
q个元素;
16.每个全连接隐层包括一个全连接层、一个标准化层和一个relu激活层;
17.输出层的输出维度为m。
18.进一步的,在s200中,信道功率控制神经网络包括一个输入层、多个全连接隐层、一个输出层和一个约束层,一个输入层、多个全连接隐层、一个输出层和一个约束层依次连接,其中,
19.一个输入层的维度为q;输入层的输入是由s100中信道分配神经网络所决定的信道分配方案而确定的一组本地信息集,包含q个元素;
20.每个全连接隐层包括一个全连接层、一个标准化层和一个relu激活层;
21.信道功率控制神经网络的输出层包括一个全连接层、一个标准化层和一个sigmoid激活层;
22.输出层的输出维度为1;
23.约束层,用于对输出层的输出进行处理以满足约束;将输出进行约束处理的方法为,用p
max
乘以信道功率控制神经网络输出层的输出,最后得到约束处理后的功率控制。
24.进一步的,在s300中,信道分配神经网络采用基于深度强化学习的集中式训练,具体的,
25.首先为信道分配神经网络设定经验池,假设回程占用一个时隙延迟,则经验池将存放t-1时隙发射机智能体所收集到的所有m个信道的本地信息集s
t-1
、t-1时隙信道分配神经网络的输出a
t-1
、t时隙奖励r
t
和t时隙发射机智能体所收集到的所有m个信道的本地信息集s
t
,当经验池信息数量满足训练要求后,信道分配神经网络开始集中训练;将经验池里t-1时隙发射机智能体所收集到的所有m个信道的本地信息集s
t-1
作为信道分配神经网络的输入,t时隙发射机智能体所收集到的所有m个信道的本地信息集s
t
作为信道分配神经网络目标网络的输入,
26.在训练时采用均方误差损失函数,以最大化传输速率,所采用的损失函数l(θ)表示为:
[0027][0028]
y(s
t
,r
t
)=r
t
+γmaxa′qtarget
(s
t
,a

;θ
target
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)
[0029]
θ
target
=τθ+(1-τ)θ
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)
[0030]
其中表示期望,a

为信道分配神经网络目标网络的输出,y(s
t
,r
t
)为信道分配神经网络的目标输出值;q(s
t-1
,a
t-1
;θ)为信道分配神经网络的实际输出值,q
target
(s
t
,a

;θ
target
)为信道分配神经网络目标网络的实际输出值,γ为折扣因子,θ为信道分配神经网络的参数,θ
target
为信道分配神经网络目标网络的参数;通过神经网络反向传播更新信道分配神经网络的参数θ,并利用信道分配神经网络的参数θ更新信道分配神经网络目标网络的参数θ
target
,τ为小于1的正数;
[0031]
奖励r
t
表示为:
[0032][0033][0034][0035]
[0036][0037][0038]
其中为t时隙发射机n的奖励值;为t-1时隙发射机n的下行链路传输速率;惩罚项表示t-1时隙发射机n对所有接收机造成的干扰;为t-1时隙发射机n在信道m上的下行链路传输速率;是t时隙被干扰机集合;表示t-1时隙处链路n选择信道m,否则道m,否则表示由信道功率控制网络输出约束层得到的在t-1时隙处发射机n发射功率;σ2表示高斯噪声;表示t-1时隙处发射机n在信道m上的信道增益;βk→n表示发射机k到接收机n的路径损耗;表示t-1时隙处在信道m上发射机k到接收机n的小尺度瑞利衰落。
[0039]
进一步的,在s400中,信道功率控制神经网络采用基于深度无监督学习的集中式训练,具体的,
[0040]
在集中式训练时采用信道传输速率的负期望作为信道功率控制神经网络的损失函数,通过神经网络反向传播更新信道功率控制神经网络的参数,以最大化信道传输速率;损失函数表示为:
[0041][0042]
其中φ为信道功率控制神经网络的参数,
[0043]
本发明的有益效果:本发明提出了一种深度强化学习联合无监督学习的d2d网络分布式资源分配方法,避免了集中式收集瞬时全局信道状态信息方法的缺点,该方法将深度强化学习和深度无监督学习相结合,研究多信道d2d网络的信道分配和功率控制,以最大化信道传输速率。
附图说明
[0044]
图1是本发明的一种深度强化学习联合无监督学习的d2d网络分布式资源分配方法的实施框架图;
[0045]
图2是本发明中的多信道d2d网络模型;
[0046]
图3是本发明实施例中链路n=20的d2d网络拓扑图;
[0047]
图4是本发明实施例中所设计的信道分配神经网络;
[0048]
图5是本发明实施例中所设计的功率控制神经网络;
[0049]
图6是信道数量为2时本发明方法与其他基准算法的信道平均传输速率比较曲线;
[0050]
图7是信道数量为4时本发明方法与其他基准算法的信道平均传输速率比较曲线;
[0051]
图8是信道数量为10时本发明方法与其他基准算法的信道平均传输速率比较曲
线。
具体实施方式
[0052]
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0053]
本发明提出了一种深度强化学习联合无监督学习的d2d网络分布式资源分配方法,通过使用强化学习进行信道分配,深度无监督学习进行信道功率控制,以最大化传输速率、有效增加网络容量、提升d2d网络性能,所述无线资源分配方法包括以下步骤:
[0054]
为了实现分布式执行,本发明将每个发射机设置为单独的智能体,每个发射机智能体收集到的局部的信道状态信息作为本地信息集,不再是仅有单个智能体收集全局的信道状态信息,避免了集中式执行类似的缺点。
[0055]
s100、构建信道分配神经网络,在发射机智能体上分布式执行;所述信道分配神经网络的输入为发射机智能体所收集到的所有m个信道的本地信息集,所述信道分配神经网络的输出为m个适应值,将最大适应值所对应的信道确定为信道分配方案;
[0056]
在s100中,所述信道分配神经网络包括一个输入层、多个全连接隐层和一个输出层,所述一个输入层、多个全连接隐层和一个输出层依次连接,其中,所述输入层的维度为m
×
q,其中m为d2d用户对所共享的正交信道数量,q为在每个信道上与发射机智能体有关的本地信息集合中的元素个数;所述的本地信息集包括t时隙所有m个信道的信道增益和t-1时隙发射机在所有m个信道对其所有干扰邻居的干扰等,共有m
×
q个元素;每个全连接隐层包括一个全连接层、一个标准化层和一个relu激活层;所述输出层的输出维度为m。
[0057]
s200、构建信道功率控制神经网络,在发射机智能体上分布式执行;根据s100的信道分配方案,确定此信道分配方案所对应的一组本地信息集;所述信道功率控制神经网络的输入为所述确定的一组本地信息集,通过对所述信道功率控制神经网络输出层的输出进行约束,得到功率控制方案;
[0058]
在s200中,所述信道功率控制神经网络包括一个输入层、多个全连接隐层、一个输出层和一个约束层,所述一个输入层、多个全连接隐层、一个输出层和一个约束层依次连接,其中,所述一个输入层的维度为q;所述的输入层的输入是由s100中所述信道分配神经网络所决定的信道分配方案而确定的一组本地信息集,包含q个元素;每个全连接隐层包括一个全连接层、一个标准化层和一个relu激活层;所述信道功率控制神经网络的输出层包括一个全连接层、一个标准化层和一个sigmoid激活层;所述输出层的输出维度为1;所述约束层,用于对所述输出层的输出进行处理以满足约束;所述的将输出进行约束处理的方法为,用p
max
乘以信道功率控制神经网络输出层的输出,最后得到约束处理后的功率控制。
[0059]
s300、对s100中所述的信道分配神经网络进行基于深度强化学习的集中式训练,将集中训练后的信道分配神经网络参数传递给各个发射机中的信道分配神经网络,对各个发射机中的信道分配神经网络的参数进行更新,使更新后的信道分配神经网络继续在各个发射机智能体上分布式执行;
[0060]
在s300中,所述信道分配神经网络采用基于深度强化学习的集中式训练,具体的,
首先为信道分配神经网络设定经验池,假设回程占用一个时隙延迟,则经验池将存放t-1时隙发射机智能体所收集到的所有m个信道的本地信息集s
t-1
、t-1时隙信道分配神经网络的输出a
t-1
、t时隙奖励r
t
和t时隙发射机智能体所收集到的所有m个信道的本地信息集s
t
,当经验池信息数量满足训练要求后,信道分配神经网络开始集中训练;将经验池里t-1时隙发射机智能体所收集到的所有m个信道的本地信息集s
t-1
作为信道分配神经网络的输入,t时隙发射机智能体所收集到的所有m个信道的本地信息集s
t
作为信道分配神经网络目标网络的输入,在训练时采用均方误差损失函数,以最大化传输速率,所采用的损失函数l(θ)表示为:
[0061][0062]
y(s
t
,r
t
)=r
t
+γmaxa′qtarget
(s
t
,a

;θ
target
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(12)
[0063]
θ
target
=τθ+(1-τ)θ
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(13)
[0064]
其中表示期望,a

为信道分配神经网络目标网络的输出,y(s
t
,r
t
)为信道分配神经网络的目标输出值;q(s
t-1
,a
t-1
;θ)为信道分配神经网络的实际输出值,q
target
(s
t
,a

;θ
target
)为信道分配神经网络目标网络的实际输出值,γ为折扣因子,θ为信道分配神经网络的参数,θ
target
为信道分配神经网络目标网络的参数;通过神经网络反向传播更新信道分配神经网络的参数θ,并利用信道分配神经网络的参数θ更新信道分配神经网络目标网络的参数θ
target
,τ为小于1的正数;奖励r
t
表示为:
[0065][0066][0067][0068][0069][0070][0071]
其中为t时隙发射机n的奖励值;为t-1时隙发射机n的下行链路传输速率;惩罚项表示t-1时隙发射机n对所有接收机造成的干扰;为t-1时隙发射机n在信道m上的下行链路传输速率;是t时隙被干扰机集合;表示t-1时隙处链路n选择信道m,否则道m,否则表示由信道功率控制网络输出约束层得到的在t-1时隙处发射机n
发射功率;σ2表示高斯噪声;表示t-1时隙处发射机n在信道m上的信道增益;βk→n表示发射机k到接收机n的路径损耗;表示t-1时隙处在信道m上发射机k到接收机n的小尺度瑞利衰落。
[0072]
s400、对s200中所述的信道功率控制神经网络进行基于深度无监督学习的集中式训练,将集中训练后的信道功率控制神经网络参数传递给各个发射机中的信道功率控制神经网络,对各个发射机中的信道功率控制神经网络的参数进行更新,使更新后的信道功率控制神经网络继续在各个发射机智能体上分布式执行;
[0073]
在s400中,所述信道功率控制神经网络采用基于深度无监督学习的集中式训练,具体的,在集中式训练时采用信道传输速率的负期望作为信道功率控制神经网络的损失函数,通过神经网络反向传播更新信道功率控制神经网络的参数,以最大化信道传输速率;所述的损失函数表示为:
[0074][0075]
其中φ为信道功率控制神经网络的参数,
[0076]
下面提供一个具体实施例:
[0077]
该面向多信道d2d网络基于深度强化学习联合无监督学习的d2d网络分布式资源分配方法,实施框架图如图1所示,其中图中分别表示t-1时隙的发射机智能体收集到所有信道的本地信息集、t-1时隙所有信道分配神经网络的输出、t时隙的奖励和t时隙的发射机智能体收集到所有信道的本地信息集。表示t时隙信道分配神经网络输出的信道分配方案,表示为t时隙信道分配神经网络输出的信道分配方案所确定的一组本地信息集,表示t时隙信道功率神经网络输出的信道功率方案。
[0078]
以下结合实施流程、实施例、附图对本专利的实施做详细说明。
[0079]
图2是多信道d2d网络系统模型。在实施例中,假定每一个d2d对被随机放置在面积为500m
×
500m的场景中,其接收器随机放置在10米到100米之间的发射机周围,d2d对为20,信道数量为2。图3是本发明实施例中链路n=20的d2d网络拓扑图。按照lte标准,路径损耗由128.1+37.6log
10
(d)db,其中d表示发射机到接收机之间的距离,单位是km。本专利设定σ2=-114dbm。由于前端动态范围的实际限制,设定信噪比的上限为30dbm。
[0080]
该面向多信道d2d网络基于深度强化学习联合无监督学习的d2d网络分布式资源分配方法,详细实施步骤如下:
[0081]
s100、构建信道分配神经网络,在发射机智能体上分布式执行;所述信道分配神经网络的输入为发射机智能体所收集到的所有m个信道的本地信息集,所述信道分配神经网络的输出为m个适应值,将最大适应值所对应的信道确定为信道分配方案;在s100中,所述信道分配神经网络包括一个输入层、多个全连接隐层和一个输出层,所述一个输入层、多个全连接隐层和一个输出层依次连接,其中所述输入层的维度为m
×
q,其中m为d2d用户对所
共享的正交信道数量,q为在每个信道上与发射机智能体有关的本地信息集合中的元素个数;所述的本地信息集包括t时隙所有m个信道的信道增益和t-1时隙发射机在所有m个信道对其所有干扰邻居的干扰等,共有m
×
q个元素;每个全连接隐层包括一个全连接层、一个标准化层和一个relu激活层;所述输出层的输出维度为m。
[0082]
基于发射机智能体本地信息集的收集方法如下步骤:
[0083]
令每一条链路为n,链路n分别由发射机n和接收机n组成,在每个时隙t处,每个发射机智能体n通过收集自身发射机智能体的信息集和附近发射机智能体的信息集组成来决策动作
[0084]
对于链路n,设置两个邻域集,第一个邻域集表示在上一个时隙t-1处附近发射机对链路n干扰的干扰机集合,用来表示。为了对是否使用信道m的发射机进行优先排序,将发射机n附近的发射机分为两组,分别为在时隙t处占用信道m和不占用信道m。将接收机n处收到的干扰强度进行降序排列表示为以便优先考虑对链路n干扰影响最严重的发射机邻居。其中,是基于构成的集合。
[0085]
第二个邻域集是被干扰机集合,表示在前一个时隙t-1处发射机n对附近链路干扰的被干扰集合,定义为同样,为了对是否使用信道m的接收机进行优先排序,将附近接收机分为两组,按照干扰强度进行降序排列表示为以便优先考虑链路n的发射机对附近干扰影响最严重的接收机。其中,是基于构成的集合。
[0086]
接下来,令表示在时隙t处发射机智能体n的本地信息集,定义三个主要的特征来描述首先,第一个特征组是链路n自身接收机从发射机得到的本地信息集,发射机n可以直接访问接收机n收集到的占用信道m的最新本地信息,例如信道状态信息发射机n在前一个时隙的发射功率传输速率传输速率表示每个时隙的开始处与总干扰功率的比,表示时隙t处链路n对选择信道m,否则表示时隙t处链路n对选择信道m,否则表示时隙t处发射机n在信道m上的信道增益;最后用κ
n,m
来表示本地信息特征组:
[0087][0088]
第二个特征组是链路n附近发射机对接收机n的干扰信息;同于第一个特征组信息,对于发射机i还有以下信息被保留,即其中为体现分布式方法,按照干扰强度索引出c个元素作为第二个特征组信息集ν
n,m
,ν
n,m
遵循的优先级标准。
[0089][0090]
最后一个特征组是链路n发射机对其附近接收机的造成的干扰信息。假设被干扰的接受机j与干扰发射机n会进行信息交换,但是由于回程网络传输会延迟一个时隙,例如:同第二个特征组信息,按照干扰强度索引出c个元素作为第三个特
征组信息集,用η
n,m
来表示,η
n,m
必须遵循的优先级标准。
[0091][0092]
最后,将发射机智能体n在时隙t处使用信道m的本地信息表示为:
[0093][0094]
对本地信息集的预处理是发射机智能体将收集到所有信道的本地信息集按照干扰强度进行降序排列,为体现分布式方法,从每个发射机智能体索引出c个元素信息作为本地信息集,以便优先考虑到发射机对干扰最严重的接收机邻居,在本次实例中令c=5,每一信道的本地信息集元素个数q=9
×
c+5=50;根据假定的多信道d2d网络模型可知,m=2,本地信息集张量形状为(1,2
×
50);根据假定的多信道d2d网络模型可知,m=2,神经网络模型的输入层的维度为2
×
50;神经网络模型的输出层的维度为2;将所述信道分配神经网络模型的输出层看作是一条链路在所有信道上的适应值,选出最大适应值所对应的信道即为该链路的信道分配方案。
[0095]
图4是本专利实施例所设计的信道分配神经网络,该模型包含1个输入层、3个全连接隐层和1个输出层。输入层是发射机智能体收集到所有信道的本地信息集;其中3个全连接隐层包括1个全连接层、1个标准化层和一个relu激活层;根据假定的多信道d2d网络模型可知,n=20,m=2,输入到该网络的本地信息集张量的形状为(1,100)、输入层的神经元维度为100、输出层神经元的维度为2;全连接隐层全连接层神经元的维度从左到右依次为80、50和50。
[0096]
s200、构建信道功率控制神经网络,在发射机智能体上分布式执行;根据s100的信道分配方案,确定此信道分配方案所对应的一组本地信息集;所述信道功率控制神经网络的输入为所述确定的一组本地信息集,通过对所述信道功率控制神经网络输出层的输出进行约束,得到功率控制方案;在s200中,所述信道功率控制神经网络包括一个输入层、多个全连接隐层、一个输出层和一个约束层,所述一个输入层、多个全连接隐层、一个输出层和一个约束层依次连接,其中所述一个输入层的维度为q;所述的输入层的输入是由s100中所述信道分配神经网络所决定的信道分配方案而确定的一组本地信息集,包含q个元素;每个全连接隐层包括一个全连接层、一个标准化层和一个relu激活层;所述信道功率控制神经网络的输出层包括一个全连接层、一个标准化层和一个sigmoid激活层;所述输出层的输出维度为1;所述约束层,用于对所述输出层的输出进行处理以满足约束;所述的将输出进行约束处理的方法为,用p
max
乘以信道功率控制神经网络输出层的输出,最后得到约束处理后的功率控制。
[0097]
图5是本专利实施例所设计的信道功率控制神经网络,该模型包含1个输入层、3个全连接隐层、1个输出层和1个输出约束层。输入层是信道分配神经网络输出的信道分配方案确定的一组本地信息集;3个全连接隐层包括1个全连接层、1个标准化层和1个relu激活层;输出层包括1个全连接层、1个标准化层和一个sigmoid激活层。其中,所述输出约束层对输出层的输出进行处理以满足约束。根据假定的多信道d2d网络模型可知,n=20,m=2,输入到该网络的本地信息集张量的形状为(1,50)、输入层的神经元维度为50、输出层神经元的维度为1;全连接隐层全连接层神经元的维度从左到右依次为200、200和100。
[0098]
由信道分配神经网络输出的信道分配方案确定一组本地信息集,信道功率控制神经网络输入层的维度为1
×
50;由约束层输出优化的信道功率,信道功率控制神经网络输出层的维度为1。设发射机最大发射功率p
max
=6.3w,信道功率控制神经网络的输出约束层将输出进行约束处理的方法为,用p
max
乘以信道功率控制神经网络输出,最后得到约束处理后的功率控制。
[0099]
s300、对s100中所述的信道分配神经网络进行基于深度强化学习的集中式训练,将集中训练后的信道分配神经网络参数传递给各个发射机中的信道分配神经网络,对各个发射机中的信道分配神经网络的参数进行更新,使更新后的信道分配神经网络继续在各个发射机智能体上分布式执行;在s300中,所述信道分配神经网络采用基于深度强化学习的集中式训练,具体的,首先为信道分配神经网络设定经验池,假设回程占用一个时隙延迟,则经验池将存放t-1时隙发射机智能体所收集到的所有m个信道的本地信息集s
t-1
、t-1时隙信道分配神经网络的输出a
t-1
、t时隙奖励r
t
和t时隙发射机智能体所收集到的所有m个信道的本地信息集s
t
,当经验池信息数量满足训练要求后,信道分配神经网络开始集中训练;将经验池里t-1时隙发射机智能体所收集到的所有m个信道的本地信息集s
t-1
作为信道分配神经网络的输入,t时隙发射机智能体所收集到的所有m个信道的本地信息集s
t
作为信道分配神经网络目标网络的输入,在训练时采用均方误差损失函数,以最大化传输速率,所采用的损失函数l(θ)表示为:
[0100][0101]
y(s
t
,r
t
)=r
t
+γmaxa′qtarget
(s
t
,a

;θ
target
) (26)
[0102]
θ
target
=τθ+(1-τ)θ (27)
[0103]
其中表示期望,a

为信道分配神经网络目标网络的输出,y(s
t
,r
t
)为信道分配神经网络的目标输出值;q(s
t-1
,a
t-1
;θ)为信道分配神经网络的实际输出值,q
target
(s
t
,a

;θ
target
)为信道分配神经网络目标网络的实际输出值,γ为折扣因子,θ为信道分配神经网络的参数,θ
target
为信道分配神经网络目标网络的参数;通过神经网络反向传播更新信道分配神经网络的参数θ,并利用信道分配神经网络的参数θ更新信道分配神经网络目标网络的参数θ
target
,τ为小于1的正数;奖励r
t
表示为:
[0104][0105][0106][0107]
[0108][0109][0110]
其中为t时隙发射机n的奖励值;为t-1时隙发射机n的下行链路传输速率;惩罚项表示t-1时隙发射机n对所有接收机造成的干扰;为t-1时隙发射机n在信道m上的下行链路传输速率;是t时隙被干扰机集合;表示t-1时隙处链路n选择信道m,否则道m,否则表示由信道功率控制网络输出约束层得到的在t-1时隙处发射机n发射功率;σ2表示高斯噪声;表示t-1时隙处发射机n在信道m上的信道增益;βk→n表示发射机k到接收机n的路径损耗;表示t-1时隙处在信道m上发射机k到接收机n的小尺度瑞利衰落。
[0111]
具体的,采用深度强化学习的方法对信道分配神经网络进行集中式训练,为信道分配神经网络设定经验池,存放t-1时隙的发射机智能体收集到所有信道的本地信息集、t-1时隙所有信道分配神经网络的输出、t时隙的奖励和t时隙的发射机智能体收集到所有信道的本地信息集。当经验池信息数量满足训练要求后,信道分配神经网络开始集中式训练;将经验池里t-1时隙的发射机智能体收集到所有信道的本地信息集作为信道分配神经网络的输入,t时隙的发射机智能体收集到所有信道的本地信息集作为信道分配神经网络目标网络的输入。
[0112]
在训练时采用均方误差损失函数,以最大化传输速率。所采用的损失函数表示为:
[0113][0114]
y(s
t
,r
t
)=r
t
+γmaxa′qtarget
(s
t
,a

;θ
target
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(35)
[0115]
θ
target
=τθ+(1-τ)θ
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(36)
[0116][0117][0118][0119][0120]
[0121][0122]
式中各符号的意义同上,其中设定γ=0.25。通过神经网络反向传播更新信道分配神经网络的参数θ,并利用信道分配神经网络的参数θ更新信道分配神经网络目标网络的参数θ
target
。将集中训练后的信道分配神经网络参数传递给各个发射机中的信道分配神经网络,对各个发射机中的信道分配神经网络的参数进行更新,使更新后的信道分配神经网络继续在各个发射机智能体上分布式执行。
[0123]
s400、对s200中所述的信道功率控制神经网络进行基于深度无监督学习的集中式训练,将集中训练后的信道功率控制神经网络参数传递给各个发射机中的信道功率控制神经网络,对各个发射机中的信道功率控制神经网络的参数进行更新,使更新后的信道功率控制神经网络继续在各个发射机智能体上分布式执行;在s400中,所述信道功率控制神经网络采用基于深度无监督学习的集中式训练,具体的,在集中式训练时采用信道传输速率的负期望作为信道功率控制神经网络的损失函数,通过神经网络反向传播更新信道功率控制神经网络的参数,以最大化信道传输速率;所述的损失函数表示为:
[0124][0125]
其中φ为信道功率控制神经网络的参数,
[0126]
具体的采用深度无监督学习的方法对信道功率控制神经网络进行集中式训练,在训练时采用信道传输速率的负期望作为损失函数,更新信道功率控制神经网络参数φ,以最大化信道传输速率;所采用的损失函数可以表示为:
[0127][0128]
式中各符号意义同上。将集中训练后的信道功率控制神经网络参数传递给各个发射机中的信道功率控制神经网络,对各个发射机中的信道功率控制神经网络的参数进行更新,使更新后的信道功率控制神经网络继续在各个发射机智能体上分布式执行。
[0129]
本专利的资源分配方法先进行线下的分布式执行集中式训练后,再进行线上计算。信道分配神经网络和信道功率控制神经网络训练完成后,就可利用信道分配神经网络和信道功率控制神经网络进行线上计算。计算过程是:先将本地信息集输入到信道分配神经网络中,再将信道分配神经网络模型输出的信道分配方案确定的一组本地信息集输入到信道功率控制分神经网络中,再根据信道分配神经网络输出的信道分配方案和信道功率控制神经网络输出的信道功率计算信道传输速率。
[0130]
在线下训练中,设定一轮训练为4个时段,每个时段由5000个时隙组成。此外,信道分配神经网络的学习率设置为0.001,信道功率控制神经网络的学习率设置为0.0001。图6给出了在本实施例2信道,20链路上本发明方法与其他基准算法的信道平均传输速率比较曲线。为方便起见,本发明提出的方法被表示为“proposed drldnn-ca+uldnn-pc”。第一个
基准算法为的“joint dqn+ddpg”。第二种为“joint dqn”。第三种和第四种是最优分数规划(fp)算法不同变体。第三种被称为“ideal fp”,它需要瞬时的信道状态信息实行分数规划算法,且忽略执行集中优化和将优化结果传递给发射机之间的延迟。第四种称为“delayed fp”,表示执行分数规划算法延迟一个时隙。最后一种是随机分配算法,称为“random”。图6说明本专利提出的方法优于“joint dqn”与“joint dqn+ddpg”方法。
[0131]
图7、图8表示分别在本实施例上4信道,20链路和10信道,50链路的信道平均传输速率,比较了本发明提出的方法与其他基准算法在不同信道与链路上的性能表现。图7、图8说明随着信道与链路数的增加本专利提出的方法得到的信道平均传输速率明显优于其他方法,这表明本专利所提出的方法要比其他已提出方法在更多信道更多链路上可以获得更高的信道平均传输速率。
[0132]
实验仿真结果表明,本发明所提出的多信道d2d网络基于深度强化学习联合无监督学习的d2d网络分布式资源分配方法随着d2d网络中链路和信道数量的增加越来越优于其他基准算法。与其他基准算法相比,经过良好训练的信道分配神经网络模型和信道功率控制网络模型在随机生成部署的信道平均传输速率方面更具可好的扩展性。

技术特征:


1.一种深度强化学习联合无监督学习的d2d网络分布式资源分配方法,其特征在于,所述深度强化学习联合无监督学习的d2d网络分布式资源分配方法包括以下步骤:s100、构建信道分配神经网络,在发射机智能体上分布式执行;所述信道分配神经网络的输入为发射机智能体所收集到的所有m个信道的本地信息集,所述信道分配神经网络的输出为m个适应值,将最大适应值所对应的信道确定为信道分配方案;s200、构建信道功率控制神经网络,在发射机智能体上分布式执行;根据s100的信道分配方案,确定此信道分配方案所对应的一组本地信息集;所述信道功率控制神经网络的输入为所述确定的一组本地信息集,通过对所述信道功率控制神经网络输出层的输出进行约束,得到功率控制方案;s300、对s100中所述的信道分配神经网络进行基于深度强化学习的集中式训练,将集中训练后的信道分配神经网络参数传递给各个发射机中的信道分配神经网络,对各个发射机中的信道分配神经网络的参数进行更新,使更新后的信道分配神经网络继续在各个发射机智能体上分布式执行;s400、对s200中所述的信道功率控制神经网络进行基于深度无监督学习的集中式训练,将集中训练后的信道功率控制神经网络参数传递给各个发射机中的信道功率控制神经网络,对各个发射机中的信道功率控制神经网络的参数进行更新,使更新后的信道功率控制神经网络继续在各个发射机智能体上分布式执行。2.根据权利要求1所述的一种深度强化学习联合无监督学习的d2d网络分布式资源分配方法,其特征在于,在s100中,所述信道分配神经网络包括一个输入层、多个全连接隐层和一个输出层,所述一个输入层、多个全连接隐层和一个输出层依次连接,其中,所述输入层的维度为m
×
q,其中m为d2d用户对所共享的正交信道数量,q为在每个信道上与发射机智能体有关的本地信息集合中的元素个数;所述的本地信息集包括t时隙所有m个信道的信道增益和t-1时隙发射机在所有m个信道对其所有干扰邻居的干扰等,共有m
×
q个元素;每个全连接隐层包括一个全连接层、一个标准化层和一个relu激活层;所述输出层的输出维度为m。3.根据权利要求1所述的一种深度强化学习联合无监督学习的d2d网络分布式资源分配方法,其特征在于,在s200中,所述信道功率控制神经网络包括一个输入层、多个全连接隐层、一个输出层和一个约束层,所述一个输入层、多个全连接隐层、一个输出层和一个约束层依次连接,其中,所述一个输入层的维度为q;所述的输入层的输入是由s100中所述信道分配神经网络所决定的信道分配方案而确定的一组本地信息集,包含q个元素;每个全连接隐层包括一个全连接层、一个标准化层和一个relu激活层;所述信道功率控制神经网络的输出层包括一个全连接层、一个标准化层和一个sigmoid激活层;所述输出层的输出维度为1;所述约束层,用于对所述输出层的输出进行处理以满足约束;所述的将输出进行约束处理的方法为,用p
max
乘以信道功率控制神经网络输出层的输出,最后得到约束处理后的功率控制。
4.根据权利要求1所述的一种深度强化学习联合无监督学习的d2d网络分布式资源分配方法,其特征在于,在s300中,所述信道分配神经网络采用基于深度强化学习的集中式训练,具体的,首先为信道分配神经网络设定经验池,假设回程占用一个时隙延迟,则经验池将存放t-1时隙发射机智能体所收集到的所有m个信道的本地信息集s
t-1
、t-1时隙信道分配神经网络的输出a
t-1
、t时隙奖励r
t
和t时隙发射机智能体所收集到的所有m个信道的本地信息集s
t
,当经验池信息数量满足训练要求后,信道分配神经网络开始集中训练;将经验池里t-1时隙发射机智能体所收集到的所有m个信道的本地信息集s
t-1
作为信道分配神经网络的输入,t时隙发射机智能体所收集到的所有m个信道的本地信息集s
t
作为信道分配神经网络目标网络的输入,在训练时采用均方误差损失函数,以最大化传输速率,所采用的损失函数l(θ)表示为:y(s
t
,r
t
)=r
t
+γmax
a

q
target
(s
t
,a

;θ
target
)
ꢀꢀꢀꢀꢀ
(2)θ
target
=τθ+(1-τ)θ (3)其中表示期望,a

为信道分配神经网络目标网络的输出,y(s
t
,r
t
)为信道分配神经网络的目标输出值;q(s
t-1
,a
t-1
;θ)为信道分配神经网络的实际输出值,q
target
(s
t
,a

;θ
target
)为信道分配神经网络目标网络的实际输出值,γ为折扣因子,θ为信道分配神经网络的参数,θ
target
为信道分配神经网络目标网络的参数;通过神经网络反向传播更新信道分配神经网络的参数θ,并利用信道分配神经网络的参数θ更新信道分配神经网络目标网络的参数θ
target
,τ为小于1的正数;奖励r
t
表示为:为:为:为:为:为:其中为t时隙发射机n的奖励值;为t-1时隙发射机n的下行链路传输速率;
惩罚项表示t-1时隙发射机n对所有接收机造成的干扰;为t-1时隙发射机n在信道m上的下行链路传输速率;是t时隙被干扰机集合;表示t-1时隙处链路n选择信道m,否则m,否则表示由信道功率控制网络输出约束层得到的在t-1时隙处发射机n发射功率;σ2表示高斯噪声;表示t-1时隙处发射机n在信道m上的信道增益;β
k

n
表示发射机k到接收机n的路径损耗;表示t-1时隙处在信道m上发射机k到接收机n的小尺度瑞利衰落。5.根据权利要求1所述的一种深度强化学习联合无监督学习的d2d网络分布式资源分配方法,其特征在于,在s400中,所述信道功率控制神经网络采用基于深度无监督学习的集中式训练,具体的,在集中式训练时采用信道传输速率的负期望作为信道功率控制神经网络的损失函数,通过神经网络反向传播更新信道功率控制神经网络的参数,以最大化信道传输速率;所述的损失函数表示为:其中φ为信道功率控制神经网络的参数,

技术总结


本发明公开了一种深度强化学习联合无监督学习的D2D网络分布式资源分配方法,属于无线通信技术领域。构建信道分配神经网络,在发射机智能体上分布式执行,其输入为发射机智能体收集到的所有信道的本地信息集、输出为信道分配方案;构建信道功率控制神经网络,在发射机智能体上分布式执行,其输入为由信道分配神经网络输出的信道分配方案所确定的一组本地信息集、输出为优化的信道功率;利用深度强化学习和深度无监督学习分别对信道分配神经网络和信道功率控制神经网络进行集中式训练;训练完成后对发射机智能体上的网络进行更新并继续分布式执行。本发明与传统的集中式和分布式算法相比,能够有效地提高收敛速度,并最大化传输速率。化传输速率。化传输速率。


技术研发人员:

孙明 金彦辉 王淑梅 梅二壮 蔚丽杰

受保护的技术使用者:

齐齐哈尔大学

技术研发日:

2022.11.23

技术公布日:

2023/3/16

本文发布于:2023-03-26 22:22:20,感谢您对本站的认可!

本文链接:https://patent.en369.cn/patent/3/80088.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:信道   神经网络   发射机   分配
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2022 Comsenz Inc.Powered by © 369专利查询检索平台 豫ICP备2021025688号-20 网站地图