AND:前沿研究:AIGC+无线边缘网络的畅想_Webflix Token

原文:EnablingAI-GeneratedContent(AIGC)ServicesinWirelessEdgeNetworks

编译:DeFi之道

简介

人工智能生成内容技术由于具有的独特能力,在文本、图像和视频等内容领域的有着很大的应用潜力。毫无疑问,AIGC将显著影响未来的很多日常应用,特别是在元宇宙赛道。由于能够高效地生成大量高质量的内容,AIGC可以节省在手工内容创建上的时间花费和其他资源,最近的研究表明,AIGC在技术发展方面已经取得了重大进展。

具体来说,在文本生成方面,参考文献中和的作者已经探索了使用深度学习技术生成连贯和多样化文本的方法。对于图像生成,和作者则重点研究使用第一代对抗网络来生成逼真的图像。在音频生成中,的作者探索了用于合成高质量语音的深度学习技术。此外,扩散模型是AIGC领域的最新突破,2020年,OpenAI发布了GPT-3模型,作为一种多模式的全能语言模型,GPT-3能够进行机器翻译、文本生成、语义分析等。而在2022年发布的基于扩散模型的DALL-E2被认为是最先进的图像生成模型,其性能可以优于GANs。

但是,AIGC模型需要大量的数据来进行训练,而且大型的AIGC模型还很难被部署。以StableDiffusion为例,StabilityAI公司维护了超4000个NVIDIAA100GPU集群,运营成本就达到了5000万美元。而StableDiffusionV1模型的一次训练需要15万A100GPU小时。此外,由不同数据集训练的AIGC模型只能适用于特定的任务,例如,由人脸数据集训练的AIGC模型可以用于修复损坏的人脸图像,但不能有效地纠正模糊的景观图像。由于用户任务的多样性和有限的边缘设备容量,很难在每个网络边缘设备上部署多个AIGC模型。为了进一步提高AIGC服务的可用性,一个很有前途的部署方案是基于“Everything-as-a-service”,它可以有效地为用户提供基于订阅的服务。通过采用EaaS部署方案,我们进一步提出了“AIGC-as-a-service”的概念,具体来说就是AIGC服务提供商可以在边缘服务器上部署人工智能模型,通过无线网络向用户提供即时服务,提供更方便和可定制的体验。用户可以轻松地访问和享受AIGC的低延迟,在边缘网络中部署AaaS有几个优点:

个性化:AIGC模型可以根据每个用户的需求进行定制的内容,提供个性化的体验。例如,可以提供个性化的产品推荐,通过根据用户的位置、偏好和使用模式给用户提供服务。

高效率:通过在更接近用户的地方部署AIGC服务,服务质量将得到显著提高,例如,通过本地的内容传输,可以更有效地利用网络和计算资源,降低延迟。

灵活性:AIGC可以进行定制和优化,以满足动态需求和资源可用性。通过调度无线网络用户对AIGC的访问,可以使网络中用户的整体QoS最大化。

因此,基于边缘网络的AaaS有可能彻底改变通过无线网络来创建和交付内容的方式。然而,目前对AIGC的研究主要集中在AIGC模型的训练上,而忽略了在无线边缘网络中部署AIGC时的资源分配问题。具体来说,AIGC可能需要大量的带宽和计算能力来生成内容以及向用户交付内容,而这可能会导致网络性能的下降。此外,扩展AaaS以满足大量用户的需求也是一项挑战。因此,为用户分配合适的AIGC服务提供商至关重要的,一方面,用户追求那些能提供优质服务的ASPs;另一方面,也要避免某些AIGC服务过载和需要重新传输,从而消耗稀缺的网络资源,文章主要有以下几个方面的内容:

广东:支持人工智能、区块链等前沿领域加强研发布局:6月16日消息,据科创板日报报道,近日,广东省委、省政府印发《广东省质量强省建设纲要》提出,提升产业集群质量引领力。加强先进技术应用、质量创新、质量基础设施升级,培育发展一批引领性强的战略性产业集群。同时要增强 5G、超高清显示等领域产业技术优势,支持人工智能、区块链、量子信息、生命健康、生物育种等前沿领域加强研发布局,支持量子通信、信息光子、太赫兹、新材料、生命健康等领域努力抢占未来发展制高点。[2023/6/16 21:42:03]

对AIGC及其背后的技术的全面概述,讨论了AIGC的各种应用及其在无线边缘网络中的用例和部署挑战。

回顾了现有的基于图像的感知质量指标。通过实际实验,我们提出了一个通用模型来揭示AaaS中计算资源消耗与生成内容质量之间的关系。

提出了一种支持深度强化学习的方法来实现最优ASPs的动态选择。证明了DRL算法相比其他四种解决方案上的优势。

AI内容生成与技术

在本节中,我们将回顾AIGC的发展进展,介绍了AIGC背后的技术。然后,我们将讨论几种AIGC在边缘网络中的相关应用。

1.生成技术

我们在训练AIGC模型中引入了生成技术,基本模型结构下图所示。

图1:AIGC中的生成技术、AIGC的类别和在无线边缘网络中的应用

l自动回归模型:ARMs属于统计模型,它涉及到基于过去的值来预测一个时间序列的未来值。ARMs可以通过基于前一个元素预测下一个元素来生成文本或其他媒体类型。ARMs的一个潜在应用是,通过根据边缘用户之前的音符来预测音乐序列中的下一个音符,进而来生成音乐。

变分自编码器:VAEs可以通过学习输入数据来生成新的数据,其中包括一个编码器网络和一个解码器网络。编码器网络处理输入数据并输出一个潜在的表示,解码器网络以这种潜在的表示作为输入,并生成与输入数据相似的合成数据。

生成对抗网络:GANs由两个神经网络组成,即生成器网络和鉴别器网络。将这两个网络一起进行训练,以提高生成器生成真实图像的能力和鉴别器区分合成图像和真实图像的能力。

基于流的模型:FBMs通过一系列可逆变换将一个简单的分布转换为目标分布,这些转换被实现为神经网络,而应用这些转换的过程被称为“流(Flow)”。

扩散模型:训练DMs对被高斯噪声模糊的图像进行去噪,以学习如何实现逆转扩散过程。几种基于扩散的生成模型已经被提出,包括扩散概率模型、噪声条件评价网络和去噪扩散概率模型等。

此外,经典的技术,如Transformer,也可以用于训练AIGC模型,这将在下面进行讨论。

2.移动网络中的AIGC与应用程序类别

下文介绍了几类AIGC技术及其在边缘网络中的应用,这可以作为未来潜在的研究方向。

文本到文本的AIGC:文本到文本AIGC可以根据给定的文本输入生成类人的回复输出。因此,它可以用于自动回答、语言翻译或文章摘要。一个代表性的文本到文本AIGC模型就是GPT,它是由OpenAI?开发的语言模型。GPT是在大量生成的文本数据集上训练的,比如书籍或文章,该模型可以根据前面的单词来预测序列中的下一个单词并创建文本。GPT非常成功,并且已经在几个自然语言处理基准测试上取得了非常好的效果。GPT可以用来构建许多基于语言的服务,在无线边缘网络中,如图1所示,GPT可以作为一个聊天机器人,为司机提供导航和信息警报等服务。

北京市副市长:北京将利用冬奥会等场景在数字货币等前沿领域先行先试:9月6日消息,在今日举行的2020中国国际金融年度论坛上,北京市副市长殷勇表示,北京将突出数字经济,数字金融监管科技等重点建设具有国际的金融科技创新中心,深入开展金融科技监管沙箱试点,利用冬奥会等场景在数字货币等前沿领域先行先试,力争取得引领性的突破,支持金融科技底层技术研发,拓展应用场景,推进金融领域数据治理和基础设施的建设,加强金融科技的标准创制和标准的输出我们要不断完善金融市场体系。(财联社)[2020/9/6]

文本到图像的AIGC:文本到图像AIGC允许用户基于文本输入来生成图像,允许通过书面描述创建对应的视觉内容。它可以被看作是自然语言处理和计算机视觉技术的结合。如图1所示,文本到图像的AIGC可以帮助移动用户进行各种活动。例如,车联网中的用户可以请求基于视觉的路径规划,此外,文本到图像的AIGC还可以帮助用户创建艺术,并根据用户的描述或关键字创作各种风格的图片。

文本到3D的AIGC:文本到3DAIGC可以通过使用无线AR应用程序从文本描述生成3D模型。通常,生成3D模型比生成2D图像需要更高的计算资源。考虑到下一代互联网服务的发展,如元宇宙,基于文本来生成3D模型而无需复杂的手工设计,未来将会有非常大的应用潜力。

图像到图像的AIGC:指使用人工智能模型从源图像中生成真实的图像,或创建输入图像的程式化版本。例如,当涉及到辅助艺术品创作时,图像到图像的AIGC可以仅根据用户输入的草图生成视觉上令人满意的图片。此外,图像到图像的AIGC还可以用于图像编辑服务,比如用户可以删除一个图像中的遮挡或修复损坏的图像。

与音频相关的AIGC:与音频相关的AIGC模型可以分析、分类和操作音频信号,包括语音和音乐。具体来说,文本到语音模型的设计是为了从文本输入中合成自然的语音。音乐生成模式可以综合各种风格和流派的音乐。视听音乐的生成包括使用音频和视觉信息,如音乐视频或专辑艺术作品,以生成与特定视觉风格或主题更紧密相关的音乐作品。此外,与音频相关的AIGC可以作为语音助手,回答用户的查询。Alexa和Siri是现实应用程序的例子。

鉴于AIGC模型的强大能力,在无线边缘网络中部署AaaS存在几个挑战,下面将介绍这些挑战。

AaaS与无线边缘网络

在本节中,我们将详细讨论AaaS,包括挑战和性能指标。

AaaS的挑战

为了在无线边缘网络中部署AaaS,ASPs首先应该在大数据集上训练AIGC模型。AIGC模型和边缘网络生成技术中的应用程序扩散模型需要托管在边缘服务器上,并且可以被用户访问。需要持续的维护和更新,以确保AIGC模型在生成高质量内容方面保持准确和有效。用户可以提交内容生成请求,并从ASPs租用的边缘服务器接收生成的内容。尽管在无线边缘网络中部署AaaS有优点,但仍有相应的挑战需要解决:

带宽消耗:AIGC消耗了大量的带宽。特别是对于与高分辨率图像相关的AaaS,上传和下载过程都需要大量的网络资源来实现,来确保低延迟的服务。例如,在壁纸天堂应用中,一个人工智能生成的壁纸的数据大小可以达到10兆字节左右。此外,由于生成的图像的多样性,用户可能为了获得满意的图像,向特定的边缘服务器进行多次重复请求,进一步消耗网络资源。

时变频道质量:AaaS中的QoS会受到生成内容的无线传输影响。低信噪比、低中断概率和高误码概率会降低AIGC服务的QoS和用户满意度,这是时变信道偶尔遇到深度衰落时造成的。

辽宁省信息中心研究员:运用区块链等前沿技术推动城市治理创新:辽宁省信息中心研究员姜健力刊文称,推动5G、大数据、物联网、人工智能、工业互联网、云计算、区块链等技术创新与产业化,加快5G等网络建设,提升网络基础设施水平和服务能力,重振电子信息产业和软件业,加强电子商务等应用平台建设,促进信息消费,做大做强数字产业,夯实数字经济发展的基础。着力推进产业数字化。加快推进数字经济与实体经济的融合发展,为5G、工业互联网、区块链、人工智能等的推广应用提供丰富的应用场景,着力发展工业互联网、智能制造、共享制造,促进战略性新兴产业发展和传统产业数字化转型,促进制造业高质量发展;鼓励、支持企业加速数字化转型,提升企业数字化、网络化、智能化发展水平。着力推进治理数字化。加快推进智慧城市建设和数字政府建设,运用大数据、云计算、区块链、人工智能等前沿技术推动城市治理手段、治理模式、治理理念创新。(辽宁日报)[2020/5/19]

用于训练AIGC模型的数据集:用于训练AIGC模型的数据集可能会影响生成内容的质量。由于不同的ASPs有不同的AIGC模型,用户可以被分配到合适的ASPs来满足他们的需求。例如,使用了更多的人脸图像进行训练的AIGC模型将比使用其他数据集进行训练的AIGC模型更适合生成虚拟化身。

计算资源消耗:训练有素的AIGC模型在生成内容时仍然消耗一定的时间和计算资源,例如,扩散模型AaaS的输出质量随着推理步骤数的增加而增加。

l效用最大化和激励机制:激励机制的设计在AaaS中具有重要意义,因为它可以激励ASPs生成高质量的内容,满足期望的目标和目标。

解决上述挑战的一个常见问题是如何评估AIGC的性能。虽然目前市面上已经提出了许多不同模式的评估指标,但大多数都是基于人工智能模型或者本身难以计算,没有数学表达式。对于无线网络中AaaS的优化设计,基于人工智能的资源分配解决方案可以利用基于人工智能的性能指标来模拟对用户的主观感受。然而,传统的数学资源分配方案需要有对计算资源消耗的关系,如扩散模型中的推理步数与生成内容的质量之间的关系进行建模,如图2所示。为了解决这一问题,我们以与图像相关的AaaS为例,引入了各种性能评价指标,并探讨了度量值之间的数学关系。

性能指标

我们首先讨论AIGC的评估指标。我们专注于评估图像的感知质量,但同样的方法也可以应用于其他类型的内容,我们还建立了AaaS中计算资源消耗与生成内容质量之间的关系。

1)基于图像的指标:图像质量评估指标可以是基于分布的和基于图像的。基于分布的度量标准,例如,弗雷切特初始距离,取一个图像特征列表来计算分布之间的距离,以评估生成的图像。然而,对于无线网络中的实际AaaS,质量评价是主观的,用户很难计算出基于分布的指标。因此,我们关注基于图像的指标,试图通过建模人类视觉系统的生理和心理视觉特征,或通过信号保真度度量来实现对质量预测的一致性。具体来说,如果不以原始图像作为参考,无参考图像质量评价方法可以被认为是:

全分辨:TV是对图像平滑度的一种度量。计算全分辨的一种常见方法是取图像中相邻样本之间的绝对值之和,它衡量了图像的“粗糙度”或“不连续性”。

无参考的空间域图像质量评估:BRISQUE用局部归一化亮度系数的场景统计数据来量化由于失真而可能造成的图像“自然性”损失,研究表明,BRISQUE表现与人类对图像质量的感知类似。

图像质量越高,TV值越小,对于有参考图像的AaaS,我们可以使用全参考图像质量的评价方法:

声音 | 广州社科院党组书记:要敏锐感知区块链等前沿 把握趋势:12月13日上午,广州市社会科学院2019年度重大课题成果发布会举行,会议集中发布了《广州提升国际大都市品牌形象研究》等14项重大课题成果。市社科院党组书记、院长张跃国表示,要敏锐感知前沿、把握趋势。如“大智物云”、区块链等技术加速变革,除了对经济体系、产业结构产生决定性影响之外,对社会生产组织体系、社会结构和城市治理,也会产生前所未有的深刻影响。[2019/12/14]

离散余弦变换图像质量评价:DSS通过测量离散余弦变换域的结构信息变化,利用人类视觉感知的基本特征,对这些次频带的质量进行加权计算。

基于Haar小波的感知相似性指数:HaarPSI利用从Haar小波分解得到的系数来评估两幅图像之间的局部相似性,以及图像区域的相对重要性。

平均偏差相似指标:MDSI利用梯度相似度、色度相似度和偏差池等,是一个可靠和完整的参考感知图像质量评估的模型。

视觉信息保真度:VIF是一种有竞争力的测量保真度的方法,它量化了参考图像中的信息,以及从失真图像中可以提取多少参考信息。

图像质量越高,上述衡量图像质量的度量值就越高。

2)感知图像质量度量值的一般模型:基于扩散模型的AIGC模型正在成为主流。如图1的所示,扩散过程可以看作是一个逐级去噪的过程。因此,增加推理步骤的数量将提高感知图像的质量。然而,生成的图像质量并不总是随着步骤数的增加而增加。过度的推理步骤会导致不必要的资源消耗。我们进行了真实的实验来调查推理步骤数和各种感知图像质量指标之间的关系,即TV、BRISQUE、DSS、HaarPSI、MDSI和VIF。

实验平台建立在一个通用的Ubuntu20.04系统上,AMD锐龙ThreadripperPRO3975WX处理器规格和NVIDIARTXA5000的GPU。我们以基于扩散模型的损坏图像恢复服务作为AaaS为例子。具体来说,我们在服务器上部署了中提出的训练有素的模型RePaint。如图2所示,我们首先生成一系列损坏的图像,例如20张图像。然后,将这些损坏的图像输入“重新绘制”。我们可以观察到,随着推理的进行,损坏的图像逐渐恢复,如图2所示。此外,衡量图像质量的BRISQUE度量值下降,如图2所示。我们在图3中展示了在不同的时间和推理步骤下的各个度量值的变化。

图2:用于修复损坏的图像的AaaS示例

图3.推理步骤的数量与不同感知图像质量指标之间的关系

因此,我们给出了一个包含四个参数的感知图像质量度量的一般模型,如图3的顶部所示。具体来说,Ax是图像质量开始提高时的最小推理步骤数,Ay是图像质量的下限,可以视为高噪声图像的评价值,Bx是根据AIGC模型的能力而使图像质量开始稳定时的推理步骤数,By是模型所能达到的最高图像质量的值。无论性能度量值与图像质量成正比还是成反比,无论AaaS类型如何,我们都可以很容易地通过实验找到点和,如图3所示。

经验教训:尽管扩散过程存在固有的不确定性,但从图3中我们可以观察到,感知到的图像质量随着推理步骤的增加而近似成比例的增加或下降。在实际的AIGC模型分析中,我们可以用图3所示的简单拟合方法对一个性能度量进行实验,得到我们提出的一般数学模型中的四个参数。然后,该模型可用于无线边缘网络支持的AIGC服务分析。

新时代“花木兰”学习区块链以追逐信息技术前沿:尹璐是中部战区联合作战指挥中心保障队的总工程师,同时也被誉为“为联合制胜拨开‘迷雾’的‘花木兰’”。近日接受采访时表示,为了追逐世界信息技术前沿,她拼命学习通信网络和控制技术、大数据、区块链等知识。[2018/4/19]

深度强化学习的动态ASPs选择

在本节中,我们研究了最优的ASPs边缘服务器选择问题。我们提出了一个支持DRL的解决方案,以最大化实用功能,同时满足用户的需求。

AaaS系统模型

如我们的演示图2所示,三个用户分别在两个图像修复AIGC模型中进行选择,在CelebA-HQ和Places2数据集上进行训练。用户1和用户2上传了相同的损坏图像,我们可以观察到不同的AIGC模型对于相同的用户任务会产生不同的结果。

进一步研究了在无线边缘网络中大规模部署AaaS的情况,模拟设置了20个AIGC服务提供商和1000个边缘用户。每个ASPs为AaaS提供最大的资源容量,即在一个时间窗口内的总扩散步数,在600到1500范围内随机,每个用户在不同的时间向ASPs提交多个AIGC任务请求。这些任务指定了其所需要的AIGC资源的数量,即扩散步数,我们将其设置为一个在100到250之间的随机值,用户任务的到达情况遵循泊松分布。具体来说,在288小时内,用户任务到达速率λ=0.288h/请求,总共有1000个任务。需要注意的是,由不同的ASPs提供的AIGC模型的质量是不同的,例如,修复后的图像可以更真实和自然。

一个简单但不太有效的ASPs选择是,用户将任务请求直接发送到生成内容质量最好的ASPs。然而,由于计算资源不足和实践中任务可能中断,这种方法不可避免地使一些ASPs过载,此外,用户此时也不知道ASPs生成内容的质量。移动用户需要多次要求ASPs来估计生成内容的质量,以进行近似选择,这带来了不必要的负载和无线网络资源消耗。为此,在生成内容质量未知的前提下,如何为用户任务选择合适的ASPs,最大限度地提高整个系统的效用,减少集中某个ASPs造成的AIGC资源过载和中断问题,是一个具有挑战性但又非常重要的问题。

基于深度强化学习的解决方案

我们使用SoftActor-CriticDRL来解决上述动态ASPs选择问题。如图4所示,学习过程在评估和改进之间交替进行。与传统的行为者-批评者体系结构不同,SAC中的策略被训练为最大限度地在预期回报和信息熵之间进行权衡。AaaS环境中的状态空间、动作空间和奖励的定义如下:

图4:Thestructureofsoftactor–criticDRLalgorithm.

状态:状态空间由两部分组成,(a)到达的用户任务的特征向量。

动态:ASPs选择问题的动态空间是一个表示所选ASPs的整数。

奖励:包括两部分,生成内容的质量奖励和拥塞惩罚。前者被定义为修复后的图像的感知质量。此外,任何超载AIGC模型的操作都必须作进行惩罚。首先,行为本身应该受到固定的惩罚。其次,考虑到操作原因会导致ASPs的模型崩溃,并且正在运行的任务将被中断,当前的操作也会根据正在进行的任务的进度受到额外的惩罚。返回的总回报是质量奖励减去拥塞惩罚。

图5显示了启用了DRL后的ASPs选择策略和四个基准测试策略的效用曲线。由于DRL可以学习和进化,随着学习步骤的进展,DRL对ASPs的选择更全面、更准确。因此,效用迅速上升,显示出独特的学习能力。一个有趣的发现是,当DRL超过循环时,DRL已经有了一个特定的负载平衡能力,此时,DRL已经学会了避免可能导致崩溃的操作,从而避免了拥塞惩罚。然后,DRL开始学习不同的ASPs的优先级,并寻求将当前的用户任务放在高质量的ASPs上,以最大化奖励。

图5:奖励值与DRL中迭代次数的关系

图6计算了五种策略下AIGC任务崩溃的数量、已完成任务的平均奖励和崩溃任务的数量。一方面,启用了DRL的ASPs选择策略可以实现零任务崩溃,并将拥塞惩罚最小化,这对于为用户提供令人满意的生成内容质量至关重要。另一方面,DRL策略可以了解ASPs可能提供的内容质量,而这在其他策略中是未知的。然后,DRL可以将用户任务分配给能够提供更高QoS的ASPs,从而有效地增加每个任务的平均奖励。以上两个优势的结合最终使得DRL下的ASPs选择策略能获得更高的奖励。

图6:五种策略下的任务崩溃的数量、已完成任务的平均奖励和崩溃任务统计

未来方向

Assa安全

在无线网络中部署AaaS时,来自用户的请求和生成的内容都是在无线环境中传输的。因此,需要研究AIGC的安全技术,例如,通过改进物理层安全技术来保护AIGC数据的传输,此外,区块链可以用于实现分布式的内容分发,允许在用户之间直接共享和访问内容,而不需要一个中央节点。通过区块链验证AIGC的真实性和来源,确保AIGC的准确和可信。此外,在AIGC模型的训练过程中,需要保证训练数据的隐私性,特别是生物特征数据,如人脸图像等数据的安全,一种可能的解决方案是通过federatedlearning模型来进行训练。

基于物联网和无线传感辅助的AaaS

考虑到传感技术的快速发展,我们的目标是利用无线传感信号实现无源AaaS。例如,无线传感器可以收集有关环境或用户行为的数据,然后可以将这些数据输入到AIGC模型中,以生成相关的内容,这可以被应用到医疗保健,比如借助使用物联网设备,通过无线传感来检测用户的活动水平、睡眠模式或心率,AIGC可以生成个性化锻炼计划等内容。

AaaS的个性化资源分配

虽然目前的AIGC模型可以通过定制化来满足用户的需求,但还需要更多的研究来实现个性化的AIGC服务。例如,对于文本到图像的AaaS,当两个用户都输入文本“一只猴子站在一只斑马旁边”时,当前的ASPs会为用户生成类似的图像,但是,如果我们推断这两个用户分别是驯马师和猴子研究者,我们就可以进行个性化的计算资源分配。具体来说,应该分配更多的计算资源来为驯马师生成和传输图像中的斑马。对于猴子研究人员来说,更适合生成猴子图像的AIGC模型应该被分配来处理这个任务。一个潜在的解决方案是将用户反馈和偏好纳入到内容生成过程中,并开发评估个性化内容有效性的技术。

总结

在本文中,我们回顾了AIGC技术,并讨论了其在无线网络中的应用。为了向用户提供AIGC服务,我们提出了AaaS的概念。然后,讨论了在无线网络中部署AaaS所面临的挑战。在解决这些挑战时,一个基本的问题是关于资源消耗和生成内容的感知质量之间的数学关系。在探索了各种基于图像的性能评价指标之后,我们提出了一个通用的建模方程,此外,我们还研究了重要的ASPs选择问题。采用DRL算法实现了接最优的ASPs选择,我们希望本文能够激励研究人员为无线边缘网络感知的AaaS发展做出贡献。

参考目录:

L.Yunjiu,W.Wei,andY.Zheng,“Artificialintelligence-generatedandhumanexpert-designedvocabularytests:Acomparativestudy,”SAGEOpen,vol.12,no.1,Jan.2022.

M.Chen,A.Radford,R.Child,J.Wu,H.Jun,D.Luan,andI.Sutskever,“Generativepretrainingfrompixels,”inProc.Int.Conf.Mach.Learn.PMLR,2020,pp.1691–1703.

J.Guo,S.Lu,H.Cai,W.Zhang,Y.Yu,andJ.Wang,“Longtextgenerationviaadversarialtrainingwithleakedinformation,”inProc.AAAIConf.Artif.Intell.,vol.32,no.1,2018.

T.Karras,T.Aila,S.Laine,andJ.Lehtinen,“Progressivegrowingofgansforimprovedquality,stability,andvariation,”inProc.Int.Conf.Mach.Learn.,2018.

X.Huang,M.-Y.Liu,S.Belongie,andJ.Kautz,“Multimodalunsupervisedimage-to-imagetranslation,”inProc.Eur.Conf.Comput.Vis.,2018,pp.172–189.

W.Ping,K.Peng,K.Zhao,andZ.Song,“WaveFlow:Acompactflowbasedmodelforrawaudio,”inProc.Int.Conf.Mach.Learn.PMLR,2020,pp.7706–7716.

L.FloridiandM.Chiriatti,“GPT-3:Itsnature,scope,limits,andconsequences,”MindsMach.,vol.30,no.4,pp.681–694,Apr.2020.

P.DhariwalandA.Nichol,“DiffusionmodelsbeatGANsonimagesynthesis,”Adv.NeuralInf.Process.Syst.,vol.34,pp.8780–8794,2021.

G.Harshvardhan,M.K.Gourisaria,M.Pandey,andS.S.Rautaray,“Acomprehensivesurveyandanalysisofgenerativemodelsinmachinelearning,”Comput.Sci.Rev.,vol.38,p.100285,2020.

H.Du,J.Liu,D.Niyato,J.Kang,Z.Xiong,J.Zhang,andD.I.Kim,“Attention-awareresourceallocationandQoEanalysisformetaversexURLLCservices,”arXivpreprintarXiv:2208.05438,2022.

S.Kastryulin,D.Zakirov,andD.Prokopenko,“PyTorchImageQuality:Metricsandmeasureforimagequalityassessment,”2019,opensourcesoftwareavailableathttps://github.com/photosynthesis-team/piq..Available:https://github.com/photosynthesis-team/piq

A.Mittal,A.K.Moorthy,andA.C.Bovik,“No-referenceimagequalityassessmentinthespatialdomain,”IEEETrans.ImageProcess.,vol.21,no.12,pp.4695–4708,Dec.2012.

L.Gatys,A.Ecker,andM.Bethge,“Aneuralalgorithmofartisticstyle,”J.Vis.,vol.16,no.12,pp.326–326,Dec.2016.

A.Lugmayr,M.Danelljan,A.Romero,F.Yu,R.Timofte,andL.VanGool,“Repaint:Inpaintingusingdenoisingdiffusionprobabilisticmodels,”inProc.IEEEConf.Comput.Vis.PatternRecognit.,2022,pp.11461–11471.

P.Christodoulou,“Softactor-criticfor?discreteactionsettings,”arXivpreprintarXiv:1910.07207,2019.

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

大币网

DOGECOSM:汽车行业热情“拥抱”元宇宙_COS

元宇宙是互联网上的虚拟空间,用户可以在这里操作自己的“分身”与他人互动或参与活动。全球最大的人工智能和图形公司之一英伟达预测,2023年将是许多汽车公司开始将其运营与元宇宙整合的一年.

[0:15ms0-10:525ms