Back_To_Home..

Data

数据标注工具

数据标注工具 数据类型 是否开源
Audio-annotator Audio Open
Labelbox Image Closed
V7 Image Closed
doccano Text, Time Series Open
ImgLab Image Open
LightTag Text Closed
supervise.ly Image Closed
Label-studio Audio, Time Series, Image, Text Open
Universal-data-tool Time Series, Image, Audio, Text Open
SuperAnnotate Image Closed
Dataloop Image Closed
awesome-data-labelling Image, audio, text, time series Open
PDF Annotator Text Closed
Drawboard Text Closed
CVAT Image Open
Scale Audio Closed
VoTT Image Open
Audino Audio Open
dataqa Text Open
Telus International Image Closed

视频行为识别Action dataset

工欲善其事,必先利其器

http://www.cs.utexas.edu/~chaoyeh/web\_action\_data/dataset\_list.html,此链接内容更全,可惜整理完后发现的。

1. The KTH Dataset(2004)

KTH数据集于2004 年的发布,是计算机视觉领域的一个里程碑。此后,许多新的数据库陆续发布。数据库包括在 4个不同场景下 25 个人完成的 6 类动作(walking, jogging, running,boxing, hand waving and hand clapping)共计 2391个视频样本,是当时拍摄的最大的人体动作数据库,它使得采用同样的输入数据对不同算法的性能作系统的评估成为可能。数据库的视频样本中包含了尺度变化、 衣着变化和光照变化,但其背景比较单一,相机也是固定的。下载地址:http://www.nada.kth.se/cvap/actions/

但是现在该数据集无法下载了(本人在这个网站中未能下载下);发现数据堂上面有,有点贵。本人有一份,free。

http://pan.baidu.com/s/1hsuQktA 密码: rfr7 .

2. The Weizmann Dataset(2005)

2005年,以色列 Weizmann institute 发布了Weizmann 数据库。数据库包含了 10个动作(bend, jack, jump, pjump, run,side, skip, walk, wave1,wave2),每个动作有 9 个不同的样本。视频的视角是固定的,背景相对简单,每一帧中只有 1 个人做动作。数据库中标定数据除了类别标记外还包括:前景的行为人剪影和用于背景抽取的背景序列。下载地址:http://www.wisdom.weizmann.ac.il/~vision/SpaceTimeActions.html

KTH 和 Weizmann 数据库是行为识别领域引用率最高的数据库,对行为识别的研究起了较大的促进作用。当然,这两个数据库的局限性也是很明显的,由于背景比较简单,没有包含相机运动, 动作种类也较少,并且每段视频只有1个人在做单一的运动,这与真实的场景差别很大。

3. The IXMAS Dataset(2006)

该数据库为多视角数据库,该数据库从五个视角获得,室内四个方向和头顶一共安装5个摄像头,另外背景和光照基本不变。包含了11个人做14个动作,重复3次,这14个动作包括{check watch, cross arms, scratch head, sit down, get up, turnaround, walk, wave, punch, kick, point, pick up, throw (over head), throw (frombottom up)}。下载地址:http://4drepository.inrialpes.fr/public/viewgroup/6

4. The Hollywood Dataset(2008、2009)

Hollywood(2008年发布)、Hollywood-2数据库是由法国IRISA研究院发布的。早先发布的数据库基本上都是在受控的环境下拍摄的,所拍摄视频样本有限。2009年发布的Hollywood-2是Hollywood数据库的拓展版,包含了 12 个动作类别和 10个场景共3669个样本,所有样本均是从69部 Hollywood 电影中抽取出来的。视频样本中行为人的表情、姿态、穿着,以及相机运动、光照变化、遮挡、背景等变化很大,接近于真实场景下的情况,因而对于行为的分析识别极具挑战性。下载地址:http://www.di.ens.fr/~laptev/actions/hollywood2/

5. The UCF Dataset(2007-)

美国University of central Florida(UCF)自2007年以来发布的一系列数据库:1UCF sports action dataset(2008),2UCF Youtube(2008),3UCF50,4UCF101,引起了广泛关注。这些数据库样本来自从 BBC/ESPN的广播电视频道收集的各类运动样本、以及从互联网尤其是视频网站YouTube上下载而来的样本。其中UCF101是目前动作类别数、样本数最多的数据库之一,样本为13320段视频,类别数为101类。

下载地址:http://crcv.ucf.edu/data/

6. The Olympic sports dataset UCF sports action dataset(2010)

Stanford university2010年发布Olympic sports dataset UCF sports action dataset,包含了运动员的各类运动视频。视频都是从YouTube上下载的,包含有16个运动类别的50个视频,标记信息为运动类别。

下载地址:http://vision.stanford.edu/Datasets/OlympicSports/

7. The UT-interactiondataset

UT-interaction database是针对交互行为的数据库,包含有6类人人交互的动作(shaking hands, pointing, hugging,pushing, kicking and punching)总共 20 段样本,长度在 1 min 左右。

下载地址:http://cvrc.ece.utexas.edu/SDHA2010/Human\_Interaction.html

8. The VideoWebdataset(2010)

California大学的VideoWebdatabase于 2010年发布,该数据库重点放在多人间的非语言交流的行为上(non-verbal communication),包含由最少4个至第4期视频序列中的行为识别研究进展多8个摄像机拍摄的长度为2.5min的视频。(未找到链接)

9. The HMDB51 dataset(2011)

Brown university大学发布的HMDB51于2011年发布,视频多数来源于电影,还有一部分来自公共数据库以及YouTube等网络视频库。数据库包含有6849段样本,分为51类,每类至少包含有101段样本。

下载地址:http://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#dataset

除此之外还有:CMU MoBo DataSet(2001)、CMU MoCapDataSet(2006)、Human Eva(2009)、i3DPostMultiView(2009)

总体而言,数据库的动作类别越来越多,样本越来越多,数据库也更庞大,视频场景越来越复杂。较早的数据库,比如KTH,视频背景较简单,动作类别不多,相机固定,这使得现有的算法很容易达到饱和,不好区分算法的优劣。最近几年发布的数据库有如下几个趋势:背景嘈杂,视角不固定,甚至相机是运动的; 样本涉及到人人交互,人物交互;行为类别数较最早发布的数据库多了很多,总之是更接近于不受控的自然状态下的情景,这对于算法的鲁棒性提出了很大的挑战。

参考文献:徐勤军, 吴镇扬. 视频序列中的行为识别研究进展[J]. 电子测量与仪器学报, 2014, 28(4):343-351.

http://blog.csdn.net/zdz8889/article/details/9207083

http://blog.sina.com.cn/s/blog\_631a4cc40101138j.html

© 2025 ai-charlie   •  Powered by Soopr   •  Theme  Moonwalk