大家好,我是 Jack。
去年我发过一期视频:
我视频的代码至今没有开源,因为有一定的危害性。
最近看到了另外一位博主分享过教程,属于比较基础的实现,没什么大问题,了解原理以及简单的实现,也有助于如何预防。今天整理了下,分享给大家。
视频中提到,在国外有人给使命召唤做了个AI程序来实现自动瞄准功能。它跟传统外挂不一样,该程序不需要用游戏内存数据,也不往服务器发送作弊指令,只是通过计算机视觉来分析游戏画面,定位敌人,把准星移动过去,跟人类玩家操作一模一样,因此反外挂程序无法检测到它。
而且更恐怖的是这AI程序全平台通用,不管是X-box,PS4还是手机,只要能把画面接出来,把操作送进去,就可以实现“枪枪爆头”。
外网的那个开发者用的是目标检测,但是像射击游戏需要定位人体的场景,其实有比方框检测更好的算法。up主就利用了几个小时的时间就写出来了一个效果更好,功能更夸张的AI程序,也就是利用人体关节点检测技术,通过大量真人图片训练出来的视觉AI,可以把视频和图片里人物的关节信息提取出来
并给出每个部位中心点的精确像素坐标,而且虽然训练的是是真人图片,但是给它游戏里的人物,他也一样能把人体关节定位出来。
可以说由于这类AI程序的出现,现在fps游戏的形式就是山雨欲来风满楼,十分严峻啊!
下面,我们先开始介绍这个视觉AI自动瞄准的制作思路,然后再谈谈这个问题带来的影响以及如何解决这个问题

核心功能设计

总体来说,我们首先需要训练好一个人体关节点检测的AI视觉模型,然后将游戏画面实时送入AI视觉模型中,再反馈出游戏人物各个部位的像素位置,然后确定瞄准点,并将鼠标移动到瞄准点位置。
拆解需求后,整理出核心功能如下:
  • 训练人体关节点检测模型
  • 输入视频或图片到AI视觉模型,并输出瞄准点位置。
  • 自动操作鼠标移动到对应瞄准位置
最终想要实现的效果如下图所示:

核心实现步骤

训练人体关节点检测模型

在这一部分,我打算使用由微软亚洲研究院和中科大提出High-Resoultion Net(HRNet)来进行人体关节点检测,该模型通过在高分辨率特征图主网络逐渐并行加入低分辨率特征图子网络,不同网络实现多尺度融合与特征提取实现的,所以在目前的通用数据集上取得了较好的结果。
1、HRNet代码库安装
按照官方的install指导命令,安装十分简单。我是采用本地源代码安装方式。
git clone https://github.com/leoxiaobin/deep-high-resolution-net.pytorch.git

python -m pip install -e deep-high-resolution-ne.pytorch

2、人体关键点数据集下载
首先打开COCO数据集官方下载链接。
https://cocodataset.org/#download
对于Images一栏的绿色框需要下载三个大的文件,分别对应的是训练集,验证集和测试集:
http://images.cocodataset.org/zips/train2017.zip
http://images.cocodataset.org/zips/val2017.zip
http://images.cocodataset.org/zips/test2017.zip
对于Annotations一栏绿色框需要下载一个标注文件:
http://images.cocodataset.org/annotations/annotations_trainval2017.zip
将文件解压后,可以得到如下目录结构:
其中的 person_keypoints_train2017.json 和 person_keypoints_val2017.json 分别对应的人体关键点检测对应的训练集和验证集标注。
annotations

├── captions_train2017.json

├── captions_val2017.json

├── instances_train2017.json

├── instances_val2017.json

├── person_keypoints_train2017.json    人体关键点检测对应的训练集标注文件

└── person_keypoints_val2017.json     人体关键点检测对应的验证集标注文件

在本地代码库datasets目录下面新建立coco目录,将上面的训练集,验证集以及标注文件放到本地代码的coco目录下面:
 datasets

├── coco

│   ├── annotations

│   ├── test2017

│   ├── train2017

│   └── val2017

3、环境配置与模型训练
核心训练代码如下:

deftrain
(config, train_loader, model, criterion, optimizer, epoch,

          output_dir, tb_log_dir, writer_dict)
:

    batch_time = AverageMeter()

    data_time = AverageMeter()

    losses = AverageMeter()

    acc = AverageMeter()

# switch to train mode
    model.train()

    end = time.time()

for
 i, (input, target, target_weight, meta) 
in
 enumerate(train_loader):

        data_time.update(time.time() - end)

        outputs = model(input)

        target = target.cuda(non_blocking=
True
)

        target_weight = target_weight.cuda(non_blocking=
True
)

if
 isinstance(outputs, list):

            loss = criterion(outputs[
0
], target, target_weight)

for
 output 
in
 outputs[
1
:]:

                loss += criterion(output, target, target_weight)

else
:

            output = outputs

            loss = criterion(output, target, target_weight)

        optimizer.zero_grad()

        loss.backward()

        optimizer.step()

# measure accuracy and record loss
        losses.update(loss.item(), input.size(
0
))

        _, avg_acc, cnt, pred = accuracy(output.detach().cpu().numpy(),

                                         target.detach().cpu().numpy())

        acc.update(avg_acc, cnt)

        batch_time.update(time.time() - end)

        end = time.time()

if
 i % config.PRINT_FREQ == 
0
:

            msg = 
'Epoch: [{0}][{1}/{2}]\t'
 \

'Time {batch_time.val:.3f}s ({batch_time.avg:.3f}s)\t'
 \

'Speed {speed:.1f} samples/s\t'
 \

'Data {data_time.val:.3f}s ({data_time.avg:.3f}s)\t'
 \

'Loss {loss.val:.5f} ({loss.avg:.5f})\t'
 \

'Accuracy {acc.val:.3f} ({acc.avg:.3f})'
.format(

                      epoch, i, len(train_loader), batch_time=batch_time,

                      speed=input.size(
0
)/batch_time.val,

                      data_time=data_time, loss=losses, acc=acc)

            logger.info(msg)

            writer = writer_dict[
'writer'
]

            global_steps = writer_dict[
'train_global_steps'
]

            writer.add_scalar(
'train_loss'
, losses.val, global_steps)

            writer.add_scalar(
'train_acc'
, acc.val, global_steps)

            writer_dict[
'train_global_steps'
] = global_steps + 
1
            prefix = 
'{}_{}'
.format(os.path.join(output_dir, 
'train'
), i)

            save_debug_images(config, input, meta, target, pred*
4
, output,

                              prefix)

训练结果:

输入视频或图片实时反馈瞄准点坐标

1、实时读取屏幕画面
import
 pyautogui

img = pyautogui.screenshot()

在一个 1920×1080 的屏幕上,screenshot()函数要消耗100微秒,基本达到实时传入游戏画面要求。
如果不需要截取整个屏幕,还有一个可选的region参数。你可以把截取区域的左上角XY坐标值和宽度、高度传入截取。
im = pyautogui.screenshot(region=(
0
0
300
 ,
400
))

2、读取图片反馈坐标
parser.add_argument(
'--keypoints'
, help=
'f:full body 17 keypoints,h:half body 11 keypoints,sh:small half body 6 keypotins'
)

hp = PoseEstimation(config=args.keypoints, device=
"cuda:0"
)

可以选择人体关节点检测数目,包括上半身6个关键点、上半身11个关键点以及全身17个关键点,然后构建探测器。
人体关节点对应序号:
"keypoints"
: { 
0
"nose"
1
"left_eye"
2
"right_eye"
3
"left_ear"
4
"right_ear"
5
"left_shoulder"
6
"right_shoulder"
7
"left_elbow"
8
"right_elbow"
9
"left_wrist"
10
"right_wrist"
11
"left_hip"
12
"right_hip"
13
"left_knee"
14
"right_knee"
15
"left_ankle"
16
"right_ankle"
 }

因此如果为了自动瞄准头部实现“枪枪爆头”,仅需要反馈 0: "nose"的坐标点就行了。
代码如下:

location=hp.detect_head(img_path, detect_person=
True
, waitKey=
0
)


defdetect_head(self, image_path, detect_person=True, waitKey=0):

    bgr_image = cv2.imread(image_path)

    kp_points, kp_scores, boxes = self.detect_image(bgr_image,

                                                    threshhold=self.threshhold,

                                                    detect_person=detect_person)

return
 kp_points[
0
][
0
]

输出结果:[701.179 493.55]
可以看到虽然训练的是真人图片,但是给它游戏里的人物,它也一样能把人体关节定位出来。
深度神经网络之所以厉害,就是因为它有一定的演绎推广能力。没见过的东西,他也能靠着层次线索分析一波,结果往往也挺准。而且游戏场景是现实场景的简化之后的结果,环境和光影都要简单的多,能把现实世界分析明白的视觉AI,对付个3D游戏更是小菜一碟了。

自动移动鼠标到对应的坐标点

1、移动鼠标
移动到指定位置:
pyautogui.moveTo(
100
,
300
,duration=
1
)

将鼠标移动到指定的坐标;duration 的作用是设置移动时间,所有的gui函数都有这个参数,而且都是可选参数。
获取鼠标位置:
print(pyautogui.position())   
# 得到当前鼠标位置;输出:Point(x=200, y=800)
2、控制鼠标点击
单击鼠标:

# 点击鼠标
pyautogui.click(
10
,
10
)   
# 鼠标点击指定位置,默认左键
pyautogui.click(
10
,
10
,button=
'left'
)  
# 单击左键
pyautogui.click(
1000
,
300
,button=
'right'
)  
# 单击右键
pyautogui.click(
1000
,
300
,button=
'middle'
)  
# 单击中间
双击鼠标:
pyautogui.doubleClick(
10
,
10
)  
# 指定位置,双击左键
pyautogui.rightClick(
10
,
10
)   
# 指定位置,双击右键
pyautogui.middleClick(
10
,
10
)  
# 指定位置,双击中键
点击 & 释放:
pyautogui.mouseDown()   
# 鼠标按下
pyautogui.mouseUp()    
# 鼠标释放
至此,视觉AI自瞄程序已经基本设计完成。
效果可以看之前发过的视频:
https://www.bilibili.com/video/BV1aA411A7J9

引发的思考

视觉AI给FPS游戏带来的这一轮重大危机!
这类视觉AI程序目前存在三个威胁:
  • 准确性
  • 隐蔽性
  • 通用性
第一个威胁就是超越人类的准确性。虽然人脑的高层次演绎归纳能力是远胜于AI的,但是在低级信息处理速度和精确度上,人类就很难比得过专精某个功能的AI了,比如在人体关节定位这件事上,给出人体每个部位的中心位置只需要几毫秒,而且精确到像素点,而同样一张图片给人类看个几毫秒,都不一定能够看清人在哪,更别说定位关节移动鼠标了。
第二个威胁就是无法被外挂程序检测的隐蔽性。和传统外挂不一样,传统外挂要操作游戏的内存数据或者文件数据,从而获取游戏世界的信息。让开挂的人打出一些正常玩家不可能实现的作弊操作。而视觉AI是完全独立于游戏数据之外的,和人一样,也是通过实时观察画面发送鼠标和键盘指令,所以传统的反外挂程序只能反个寂寞。
第三个威胁就是适用全平台的通用性。首先这个AI视觉模型是通过大量真人照片训练出来的,但是能够识别游戏中的人物,这意味着可以攻陷大部分FPS游戏。AI操作游戏和人操作游戏交互方式是没区别的,所以衍生出更大的问题,只要能把画面接入到这个模型中,就可以攻陷任意一种游戏平台,包括电脑、主机、手机等,无论你做的多封闭,生态维护的多好,在视觉AI面前众生平等。
那么我们该如何解决这个问题呢
可以通过算法检测游戏瞄准异常来检测,也可以训练对抗样本降低识别准确率。
总之,只能说技术的发展是在不断对抗中前进以及规范
作者:Yunlord
链接:https://blog.csdn.net/kobepaul123/article/details/120153967
·················END·················

推荐阅读

继续阅读
阅读原文