前言
Open Science公众号根据英国诺丁汉特伦特大学(Nottingham Trent University)进化人类感知与认知实验室(The Evolved Person Perception & Cognition Lab)Andrew Dunn 等人收集整理的实验材料系列,整理了面孔材料和工具集合,发现大家对这个资源非常喜欢。于是我们继续以该实验整理的集合为基础,对身体图片、声音和相关的工具进行了介绍。
网址:http://www.epaclab.com 
/resources
以下资源,除了前面一些中文资源为本公众号成员收集外,其余主要来源于上述的实验网站。这些资源没有特定的顺序。在整理时我们发现许多链接失效,并在力所能及范围内进行更新。如果你无法打开某个网站,可能是需要科学上网。如果科学上网仍然无法打开,请留言,我们尽量去更新。注意:部分资源的可能需要获得许可才能使用。

转载| Open Science

中文词频表

中文词频表,基于电影字幕的统计。
参考文献Cai, Q., & Brysbaert, M. (2010). SUBTLEX-CH: Chinese word and character frequencies based on film subtitles. PloS one5(6), e10729.
中文情绪词汇库
       1100个词汇,从Valence, Arousal, Concreteness等多个维度进行评分。
参考文献: Yao, Z., Wu, J., Zhang, Y., & Wang, Z. (2016). Norms of valence, arousal, concreteness, familiarity, imageability, and context availability for 1,100 Chinese words. Behavior Research Methods, 1-12.
网址:https://link.springer.com/article/
10.3758%2Fs13428-016-0793-2#SupplementaryMaterial 
(引文的补充材料)
中国词汇数据库
       48644个中文词汇 。
参考文献: Sun, C. C., Hendrix, P., Ma, J., & Baayen, R. H. (2018). Chinese lexical database (CLD). [journal article]. Behavior Research Methods.
网址:http://www.chineselexicaldatabase.com/
index.php
人格词汇
材料见该书的附录。
参考文献: 王登峰, 崔红. (2005). 解读中国人的人格. 北京: 中国社会科学文献出版社.
人们脑中的词汇网络(中文、英文)
网址:https://smallworldofwords.org/zh/project/home
1 身体刺激(body stimuli)
身体影像数据的资源是很难找到的,这里只是少量非常有用的数据集。如果您知道其它的数据库,麻烦告诉我们,我们很乐意添加到文章中,并且后续进行更新。
1.1 身体表达性行为刺激测试(The Bodily Expressive Action Stimulus Test, BEAST)
全身表情是与面部表情自然联系在一起的主要视觉刺激。在这里,我们描述了被称为“身体表达性行为刺激测试”(BEAST)的全身表达的刺激集合,并且为情感研究者团队使用这些材料提供了验证性数据。该数据库由46位演员的254个身体表情组成,他们表达了4种情绪(愤怒、恐惧、快乐和悲伤)。在所有的照片中,演员的脸都是模糊的,参与者被要求对刺激中表达的情绪进行分类,这是一项四种选择的任务。该数据库由Beatrice de de Gelder提供,BEAST的刺激信号以及有效数据可以从下面链接获取。
网址:http://www.beatricedegelder.com
/beast.html
如果使用BEAST数据库,请引用如下文献。
参考文献: de Gelder, B. & Van den Stock, J. (2011). The Bodily Expressive Action Stimulus Test (BEAST). Construction and validation of a stimulus basis for measuring perception of whole body expression of emotions. Frontiers in Psychology 2:181. doi:10.3389/fpsyg.2011.0018.

1.2 动作数据库(Action Database)

这是一个包括了全身运动的数据库,来自约克大学的动作知觉实验室(Action Perception Laboratory)团队编制。
网址:http://www-users.york.ac.uk 
/~neb506/index.html
这个数据库包括了29个演员(10个男性,19个女性),从各种角度展示的6个不同的动作(向左走、坐、捡起盒子、放置盒子、跳、站立、表演)以及5种情绪(高兴、悲伤、生气、害怕、不信任)。每个片段时长约为3秒。基本的数据可以从下列链接获得,按照网站上的说明即可。
网址:http://www-users.york.ac.uk 
/~neb506/databases.html
如果使用动作数据库,必须引用如下的参考文献。
参考文献:Keefe, B.D., Villing, M., Racey, C., Strong, S.M., Wincenciak, J., Barraclough, N.E. (2014) A database of whole-body action videos for the study of action, emotion and untrustworthiness trustworthiness discrimination. Behavior Research Methods. doi:10.3758/s13428-013-0439-6

1.3 女性身体图像数据库(Database of body-only computer-generated pictures of women for body-image studies)

Moussally等人为身体影像研究提供了一个由电脑生成的女性身体动作图片的数据库。从以下链接可以找到该论文、补充材料与刺激下载地址。
网址:www.unige.ch/fapse/PSY/groups  
/upnc/BodyImageStimuli.zip
如果使用这个数据,请引用如下的参考文献。
参考文献: Moussally, J. M., Rochat, L., Posada, A., & Van der Linden, M. (2017). A database of body-only computer-generated pictures of women for body-image studies: Development and preliminary validation. Behavior research methods49, 172-183. doi:10.3758/s13428-016-0703-7

1.4 裸体刺激材料库(nude male and female body shape stimuli)

该材料库是一组包括男性和女性的裸体及其评级在内的体形刺激材料,可以在OSF上获取,由FaceLab Glasgow提供的一组人脸及(全裸的)身体刺激的开放材料。
网址:http://facelab.org/ 
这里可以找到与参考文献相关的论文,如果你需要使用它们,别忘了引用下列文献。
参考文献:Morrison, D., Wang, H., Hahn, A. C., Jones, B. C., & DeBruine, L. M. (2017). Predicting the reward value of faces and bodies from social perception. PloS one12(9), e0185093.

1.5 人体测量数据集(A big collection of a Anthropometric data (and links) for children and adults by the University of Michigan)

国防部的人体测量数据集(Anthropometric Data Sets),但需要在下面链接里做一些搜索。
网址:https://discover.dtic.mil/
密歇根大学为儿童与成人编制的人体测量数据。
网址:http://mreed.umtri.umich.edu
/mreed/downloads.html

2 语音、视频以及其它声音刺激材料(voice, video & other sound stimuli)

2.1 语音数据库

每个说一种语言的人都带着口音。一个特定的口音本质上反映了一个人的语言背景。当人们听别人用不同于自己的口音说话时,他们会注意到其中的差异,甚至会对说话人做出某些带有偏见的社会判断。

2.1.1 语言口音档案(The Speech Accent Archive)

语言口音档案的建立是为了统一展示来自各种语言背景的口音。母语为英语和非母语的人都阅读相同的英文段落并进行了精心记录。档案馆是作为教学工具和研究工具建立的。它旨在被语言学家以及其它只想听和比较不同英语使用者口音的人使用。
该网站允许用户比较阅读者的人口统计变量和语言背景,以确定哪些变量是每个重音的关键预测因子。语言口音档案表明口音是系统性的,而不仅仅是错误的言语。
网址:http://accent.gmu.edu/about.php

2.1.2 语音认知神经实验室材料库(Voice Neurocognition Lab)

在语音认知神经实验室(Voice Neurocognition Lab),格拉斯哥大学的Pascal Belin教授编制的一批语音样本及其它材料。
网址:http://vnl.psy.gla.ac.uk/resources.php

2.1.3 蒙特利尔情感语音的声音集合(Montreal Affective Voices (MAV) Audio Collection)

这个可以看作是声音版的Ekman faces,它包括了90种非语言的情绪声音:生气、厌恶、害怕、痛苦、悲伤、惊喜、幸福、愉悦以及一些中立的情绪。同时,包含10种语音:5个男声和5个女声。
https://t.co/G3pwhUGPQV
参考文献:Belin, P., Fillion-Bilodeau, S., & Gosselin, F. (2008). The Montreal Affective Voices: a validated set of nonverbal affect bursts for research on auditory affective processing. Behavior research methods40(2), 531-539.

2.1.4 伦敦大学学院说话者数据库(UCL Speaker Database)

伦敦大学学院(UCL)说话者数据库。这是一个儿童与成人对语音知觉差异性的录音数据库,最初是为Welcome Trust资助项目开发的。它包含了45个带有英国东南部的英语口音说话人的录音,研究者可以从中探究说话者的个人风格与差异性。
网址:https://www.phon.ucl.ac.uk/shop 
/uclspeaker.php

2.2 动态的影音视频刺激材料

2.2.1 GRID的视听语料库(The GRID audiovisual sentence corpus)

GRID的视听语料库,这是一批高清视频以及声音刺激材料(多语言者)。下载是免费的,但是文件非常大。
网址:http://spandh.dcs.shef.ac.uk/gridcorpus/

2.2.2 VidTIMIT的视听数据库(The VidTIMIT Audio-Video Dataset)

这是一些个体(N=43)背诵很短的句子的视频音频资料。同时,数据库包含人物识别或语音/面部处理等各种研究问题的想法。
网址:http://conradsanderson.id.au/vidtimit/

2.2.3 瑞尔森大学情感语音及歌唱的视听数据库(The Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS))

该数据库由Livingstone & Russo编制,RAVDESS是一个开放数据库。它包含7356个文件,每个文件在情绪效价、强度以及真实性上被比较了10次。进行评价的参与者是来自北美的247个未经训练的成人,另一个更深入的由72个参与者的评价提供了重测数据。研究报告了高水平的情绪效价、评分者信度以及重测信度。
网址:https://zenodo.org/record/1188976
下面文献中具体描述了RAVDESS架构和数据的有效性。
参考文献:Livingstone, S. R., & Russo, F. A. (2018). The Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS): A dynamic, multimodal set of facial and vocal expressions in North American English. PloS one13(5), e0196391. https://doi.org/10.1371 /journal.pone.0196391.

2.2.4 日内瓦大学人脸和语音数据库(The Geneva Faces and Voices(GEFAV)database)

这项研究由瑞士日内瓦大学情感科学中心开发并发行。它汇集了111位欧洲人的面孔和声音,其中包括61名女性和50名男性,年龄在18-35岁之间。对于每个人,该数据库提供三种面部刺激(静态中性、静态微笑和动态中性)和两种声音刺激(一个元音序列/i/-/a/-/o/和一个法语句子:“Bonjour. Il est deux heures moins dix”)。面部和声音的刺激都可以下载。
网址:https://www.affective-sciences.org/gefav/
参考文献:Ferdenzi, C., Delplanque, S., Mehu-Blantar, I., Cabral, K. M. D. P., Felicio, M. D., & Sander, D. (2015). The Geneva faces and voices (GEFAV) database. Behavior research methods47(4), 1110-1121.

2.2.5语音动态可变性数据库(The Dynamic Variability in Speech(DyVis)database)

 DyVis数据库是由ESCE资助的项目,它是一项对英国英语人士的法医学语音研究。它包含了年龄在18-25岁之间的100名男性录音,这些录音(标准的南方英式英语)的语言风格迥异。
网址:http://www.ling.cam.ac.uk/dyvis  
/database/database.htm
参考文献:Nolan, F. (2011). Dynamic Variability in Speech: a Forensic Phonetic Study of British English, 2006-2007. [data collection]. UK Data Service. SN: 6790, http://doi.org/10.5255/UKDA-SN-6790-1 

2.3 其它声音刺激材料

2.3.1 英国广播公司音效档案(British Broadcasting Corporation)

存档在BBC(英国广播公司)的音效。
网址:http://bbcsfx.acropolis.org.uk/

2.3.2 创立个人声音(Create your very own sine waves)

AudioCheck提供了广泛的声音测试集合,可在线播放和高质量下载。这里提供的音频材料将帮助个体评估连接到计算机的音频设备。同时,创造属于自己的正弦波,可以把它们下载下来保存为.wav格式的文件。
https://www.audiocheck.net / 
audiofrequencysignalgenerator_sinetone.php

2.3.3 个性化声音(HAL.INRA|DEA.BRUNEL)

两个非常有用的关于个性化声音的参考文献能在这里(HAL.INRA)以及这里(DEA.BRUNEL)找到。
网址1:http://hal.inria.fr/docs/00/58/04  
/70/PDF/agus_tr_10_509.pdf
网址2:http://dea.brunel.ac.uk/cmsp  
/charlesPHDthesis/Chapter3.pdf

2.3.4 寻找声音(Find sounds)

一个能找到免费的听觉刺激材料(例如:铃声、口哨、犬吠等)的网站。它是受版权保护的。
网址:http://www.findsounds.com/

3 工具和软件(tools and software)

下面工具和软件是研究人员正在使用的,并且这么多年来认为有效的一批材料。

3.1 视觉资源

3.1.1 AVA(The AVA)

AVA,推动视觉研究及其应用,这个网站上包括基金申请和写作的信息,视觉心理物理学软件的概况及其它材料(hcp注:非常全面的的一网站,视觉实验研究必看!)。
网址:http://www.theava.net/
网址:http://www.hans.strasburger.de
/psy_soft.html

3.1.1 视角计算器(Visual angle calculator)

物体的视角是对物体在视网膜上的图像大小的测量。视角取决于物体与观察者之间的距离——距离越大,视角越小。视角也取决于物体的大小——物体越大,视角越大。计算出的尺寸和距离与输入单位相同。如果你输入的尺寸以厘米为单位,计算的距离将以厘米为单位。
网址:http://elvers.us/perception/visualAngle/

3.2 刺激生成器和软件

3.2.1 面孔生成器(Face generator)

faceGen可以免费(访问网站)下载试用版本,然后用它生成人脸。人脸生成的时候会有一点水印(人脸也没有头发)。
网址:https://facegen.com/

3.2.2 身体

业余或专业动画师使用的两种类似的生成器。
DAZ Studios 3D (免费)
网址:https://www.daz3d.com/
Poser
网址:https://my.smithmicro.com/poser-
3d-animation-software.html

3.2.3 实验软件(生成、呈现刺激和收集反应)

PsyscopeX
Mac系统上经典的心理学实验软件,这软件仍然在开发之中。非常易用并且可靠,同时它也是免费的。
网址:http://psy.ck.sissa.it/
PsychoPy
PsychoPy 是由诺丁汉大学Jon Pearce博士构想、建立、设计的,可以成为别的实验生成器的免费(开放资源)替代品。这是一个能在所有平台上工作的基于python程序语言的实验生成器。
这个软件虽然开发仍然正在中,但是漏洞很少。问题基本上会被非常好地解决,它最大的好处是免费的。并且,如果你不喜欢编程,它也拥有一个相当直观的图形用户界面,你可以在高级选项里得到设置几乎所有你想要的功能。同时,通过它的列表而不需要任何编程经验,就能够很容易地生成简单的实验,包括心理物理学的各个种类。
网址:http://www.psychopy.org/
Amazon Mechanical Turk (AMT)
如果把它当成一个研究工具(实际上它是用来给人们做采购研究),它可能可以吸引你们中的一部分人。
参考文献:Crump, M. J., McDonnell, J. V., & Gureckis, T. M. (2013). Evaluating Amazon's Mechanical Turk as a tool for experimental behavioral research. PloS one8(3), e57410.
Opesesame
Opesesame能用来编写实验的开放代码源的免费软件。它是基于python的以及it is backended by PsychoPy。大部分是很容易使用的,并且有着比PsychoPy更丰富的用户图形界面。开放资源以及基于python程序使得你可以使用图形用户界面或者get under the hood and code。它同样也是可以在多平台使用的。
网址:https://osdoc.cogsci.nl/
视觉蛋(Vision-egg)
这是另一个视觉科学实验Open GL hig levelpython平台的实验生成器。
网址:http://visionegg.org/
参考文献:Straw, A. D. (2008). Vision egg: an open-source library for realtime visual stimulus generation. Frontiers in neuroinformatics2, 4. doi: 10.3389/neuro.11.004.2008
jsPsych
这是一个通过浏览器在teh网上运行实验的java语言的图书馆。这个图书馆是Josh de Leeuw等人创建的。
网址:https://www.jspsych.org/
参考文献:De Leeuw, J. R. (2015). jsPsych: A JavaScript library for creating behavioral experiments in a Web browser. Behavior research methods47(1), 1-12. doi:10.3758/s13428-014-0458-y

3.3 言语/声音分析软件

3.3.1 Praat

声学分析的免费(开放式图形库)言语分析软件,由阿姆斯特丹大学的Paul Boersma提供。它也可以在多个平台使用。
网址:http://www.fon.hum.uva.nl/praat/

3.3.2 Audacity

Audacity是记录和剪辑音频的开放资源(跨平台)软件。它是免费的并且很容易使用。
网址:https://sourceforge.net/
projects/audacity/

3.3.3 Pasrelmouth Praat Scripts in Python

这是一个名副其实的Python Jupyter Notebook用来测量音高和HNR。需要确保在运行时安装了所有teh库。
网址:https://t.co/spKbrJAS31

3.4 人脸变形软件

3.4.1 Psychomorph

它是比较好的且是免费的软件,但是一开始操作比较棘手。软件正不断完善,其中Clare Sutherland(约克大学)完善了一个容易操作的版本。
网址:https://www.softpedia.com/get  
/Multimedia/Graphic/Graphic-Editors 
/PsychoMorph.shtml

3.4.2 FantaMorph

软件不是免费的,但是十分可靠且很容易使用。
网址:http://www.fantamorph.com/index.html

3.4.3 SqirlzMorph

软件也是免费的,并且它很有趣。
网址:http://download.cnet.com  
/Sqirlz-Morph/3000-2186_4-10304209.html

3.4.4 MorphAnalyser (2.4)

这是一个允许你查看并且操纵3D图像独立的网页浏览平台。
网址:http://cherry.dcs.aber.ac.uk  
/morphanalyser/version2.4/launch2.4.html

3.5 其它

3.5.1 计算机情感认知工具箱(The Computer Expression Recognition Toolbox(CERT))

由圣地亚哥加利福尼亚大学Littlewort, Wu, Whitehill, Fasel, Movellan, Bartlett等人编制的情感认知软件,事实上在软件里可以找到大量的人类和机器交互的材料。
网址:http://mplab.ucsd.edu/~marni/
Projects/CERT.htm

3.5.2 Psytookit

这是一个来自格拉斯哥大学的实验生成器和部分的教学辅助工具。它是免费的并且很容易使用。
网址:https://www.psytoolkit.org/

3.6 语言学数据库

3.6.1 牛津大学医学研究理事会语言数据库(Oxford MRC linguistic database)

网址:http://websites.psychology.uwa.edu.au 
/school/MRCDatabase/ uwa_mrc.htm

3.6.2 语料库及数据库(University of York: Department of langue and linguistic science: Corpora and databases)

约克大学的语言部门及语言学科数据库。
网址:https://www.york.ac.uk/language 
/current/resources/corpora/

3.7 心理语言学数据库

对于想要做实验的田野工作语言学家以及想要超越实验室的心理学家,下面的数据库将会十分有用。

3.7.1 实验语言学数据库(Experimental Linguists : Database for Psycholinguistics, words lists etc)

包含语言心理学家的数据库、单词表等。
网址:https://experimentalfieldlinguistics.
wordpress.com/experimental-materials/
3.7.2 中文潜在语意分析(Chinese Latent Semantic Analysis)
网址:http://www.lsa.url.tw/modules/lsa/

3.7.3 一些标准化的词语材料(荷兰语为主)

网址:https://www.ugent.be/pp
/experimentele-psychologie/
en/research/documents
继续阅读
阅读原文