首页 > 钓鱼用品 > 夜钓装备

《原神》在未来会否加入钓鱼玩法?

夜钓装备钓友圈2023-08-27 22:57:52A+A-

目录

1. 介绍

2. 拉杆部分

2.1上钩检测与游标定位

2.2 强化学习

2.3 仿真环境训练

2.4 迁移学习到原神环境

3. 鱼群定位与识别

3.1 目标检测

3.2 半监督学习

3.3 抛竿策略

为了避免漫无目零散的学习方式,我已经整理好了福利 可以关注【公众号:咕泡AI 回复 258 】获取

1. 介绍

本教程主要讲解自动钓鱼AI原理,需要一定数字图像处理与机器学习基础。模型分为鱼群定位与识别和拉杆(和鱼博弈)两个部分。拉杆部分使用opencv检测鱼是否上钩,并识别游标位置。确定游标位置后和鱼群博弈使用DQN强化学习算法(不想调PID太累了)。训练过程中首先在仿真环境预训练一个AI,再迁移到原神环境中,毕竟仿真环境不会失败好训练,不需要太多轮。鱼群定位与识别部分采用YOLOX定位鱼在屏幕中的位置并确定鱼的类别,鱼竿落点也一起定位。目标检测需要大量标注,太费时间,所以这里采用半监督学习+迁移学习的方式训练。

2. 拉杆部分

先从简单的开始,如果杆已经抛出去了该怎么吧鱼钓上来。

2.1上钩检测与游标定位

要钓鱼首先要检测鱼有没有上钩,上钩了才能拉。我们可以看到,上钩与没上钩的图标是不一致的且有较大差异,如下图:

上钩标志

那是不是能直接找一个上钩的图像模板直接对比呢?上图可以看出后两张图的背景差异很大,而前两张背景相似,如果我们对比相似度的话,可能前两张反而更像。

比如我们使用psnr进行对比,左边两张图的PSNR为14.35,而右边两张只有9.5. 我们能分辨出来是因为前景和背景的对比,所以我们也要给程序这么一种对比,如果提取这些图像的边缘,就可以排除背景的干扰,canny边缘图如下:

边缘图

这样处理后的图片就不会受背景影响了,也没有歧义,将这一个图作为模板进行对比便可以识别鱼有没有上钩了。

我们钓鱼过程中主要是看这一个力度调中的游标以及圆形的进度条:

状态区域

但这一个东西的位置并不是固定的,y坐标有可能会变,使用我们需要找一个特征鲜明的东西来定位这个区域。这里我们选用最佳力度去的特征,这里的特征对比度高,较为鲜明:

匹配模板

将这一图像作为模板进行模板匹配(详情参考数字图像处理),便可以在图中找到力度条的位置,确定这一区域。

滑块的位置同样可以使用模板匹配,不过为了精度,我们将匹配范围限定在力度条这一局部区域内:

力度条

2.2 强化学习

在有了力度条的游标位置后就可以对鼠标进行控制,让其落在最佳区域内了。这里考虑到控制算法的人工成本和精度,使用强化学习实现(PID调参我再也不会碰了!)。这里只介绍强化学习和DQN的基本概念,具体细节可以参考知乎上关于强化学习和DQN的讲解。

标准监督学习与强化学习区别

强化学习与标准的监督学习最大的区别就是,强化学习是交互式学习的。标准的监督学习中每一组数据和标签都是独立的,模型的输出直接和数据集中获得的标签计算loss更新模型,不会对数据集产生影响。而强化学习中模型每一次输出都会作用于环境,会改变环境下一次所提供的数据。也就是说强化学习模型一下次能获得的数据是取决于上一次输出的动作的。它和环境间是交互式学习的。

DQN则是强化学习的一种神经网络实现,这种方式不直接从环境中获得模型的损失,模型获得的只是一个奖励(reward)。而模型的目标则是最大化长期奖励,loss则是通过奖励计算的,模型要规避在某一状态下低奖励的动作,而尽量做出高奖励的动作。由于使用神经网络实现,所以模型有泛化能力。为了防止模型只最大化短期奖励,DQN还设计了经验回放机制,不断回放先前的经验,防止遗忘(具体参考连续学习中的灾难性遗忘)。

2.3 仿真环境训练

在了解了强化学习的基本概念后就可以找一段DQN代码开始训练了(当然自己复现也行)。我们可以对力度条建模,最佳区域左右的位置和游标的位置可以写成一个三维向量(pl,pr,pn),这可以作为环境的状态(state)。而模型则输出两种动作,点或不点,则action是一个二维向量。任务比较简单所以模型也不用复杂,2层MLP+个ReLU层足够。

DQN使用的神经网络模型结构

由于原神内短时间没有落在最佳区域就会失败,训练较为困难,所以先构建一个仿真环境进行预训练,训练好后再进行迁移学习。预训练的目的是让模型掌握一定的先验知识,在面对原神实际场景时可以有一定表现。就像去考试前会先做模拟题,从模拟题学会一些东西了才去考试再学。

控制力度这个问题可以进行简单建模,每过一段时间力度条会以随机的速度向随机的方向移动,同时长度也会随机变化。游标会被施加一个恒定的负向加速度,并在达到一定速度时停止。每次点击都会为游标施加一个瞬时较大的加速度,正向速度也有上限。根据这些条件,很容易就能构建一个仿真系统,模型在仿真系统内可以多学几轮。

仿真环境训练400轮效果

2.4 迁移学习到原神环境

在仿真环境训练好后就可以将模型迁移到原神的实际环境中了,这里采用fine-tuning的方法。在一个数据集上预训练一个较好的模型,再固定部分层或以较低的学习率在其他数据上学习。这是迁移学习中一种简单却非常有效的方法,可以快速实现不同域数据间模型的迁移。利用预训练的仿真环境模型,只需要40轮便可以迁移到原神环境中,并且训练过程中钓鱼很少会失败。

3. 鱼群定位与识别

3.1 目标检测

关于目标检测和YOLOX的具体细节由于太过复杂这里不细讲,可以参考知乎的综述和解读的文章。这里只介绍目标检测任务的基本概念。

目标检测是计算机视觉近几年的一个热点问题,有很多优秀的模型。这是一个多任务学习问题,包括定位和分类。这些模型的主要任务是给一张图,在其他信息完全不知道的情况下确定图中哪些区域有物体和这些物体的类别。下面这张图展示了一些常见的视觉任务:

常见视觉任务

现在的目标检测主要分为one-stage和two-stage两大阵营。one-stage模型输入一张图像后直接让模型预测图中物体的包围框和这些框对应的类别。这里使用的YOLOX便是one-stage模型。而two-stage模型则先用RPN网络预测图中物体的包围框,和这些框里的是不是物体。之后把是物体的框的区域截出来,在去预测其中物体的类别和修正框的范围。one-stage相比two-stage要快的多,但精度会差一些,不过对于定位鱼这个任务,完全在可接受范围内。

两种检测模型

3.2 半监督学习

半监督学习是指在数据集只有一部分标签的情况下,如何学习训练模型。这里打标签实在太累了,所以只有不到一半数据集打了标签。那剩下一部分怎么办呢。我们可以利用这一部分已经打了标签的数据集来处理剩下的数据集。

这里我们使用有标签的数据集先用迁移学习的方法,将在coco数据集上预训练的yolox模型迁移到这一部分数据集上。随后用这一训练好的模型为剩下的模型打上伪标签,之后再进行人工修正。毕竟稍微改改标签比自己从头打可轻松多了。要是无标签数据量足够的话也不需要人工修正了,直接根据置信度筛选迭代训练就可以了。

3.3 抛竿策略

训练好模型后就可以根据检测到的鱼的位置和鱼竿落点进行自动抛竿了。这里由于reward不好获取,所以没有采用强化学习的方式。由于定位的坐标是在二维图像的,而原神的鱼竿落点是三维的。所以这里使用迭代的方式逐步逼近落点。

逐步迭代

越靠近与迭代步长应该越小,这里使用如下公式:

移动到鱼附近后进行抛竿,随后检测鱼上钩,长时间没有上钩就重抛。这样就可以完成全自动钓鱼。

整个项目原理并不复杂但涉及方面较广。想要更深入了解可以学习更多关于强化学习,数字图像处理,目标检测以及深度学习基础理论的相关知识。

点击这里复制本文地址 以上内容由趣钓网整理呈现,请务必在转载分享时注明本文地址!如对内容有疑问,请联系我们,谢谢!

相关内容

模板文件不存在: ./template/plugins/comment/pc/index.htm

Copyright © 2012-2024 趣钓网 版权所有

钓鱼比赛视频 | 高手钓鱼视频 | 海钓视频 | 台钓视频 | XML地图 | HTML地图

qrcode
返回顶部
X趣钓网

截屏,微信识别二维码

微信号:

(点击微信号复制,添加好友)

  打开微信

微信号已复制,请打开微信添加咨询详情!