audio
audioduration (s)
1.01
8
gender
stringclasses
2 values
speaker_id
stringclasses
2 values
transcription
stringlengths
1
56
G0001
北京爱数智慧语音采集。
G0001
先讲咯杂衣服咯。
G0001
那基本上都是在网上买,以前的话嘞我就喜欢逛淘宝,
G0001
感觉咯杂淘宝嘞还是比较比较好,
G0001
现在嘞我又特别喜欢逛拼多多,
G0001
以前嘞对以前嘞觉得咯啊拼多多嘞它可能咯啊质量不蛮好,所以嘞它才便宜嘛,
G0001
然后嘞现在后背有一段时间尤其是生咖细伢子之后,感觉咯细伢子咯啊衣服嘞,
G0001
都上面看哒呀买咖几件呐,好像还可以一样,然后就爱上了拼多多,
G0001
又便宜又好,
G0001
对对对,我也是咯样觉得的,
G0001
反正嘞现在咯啊拼多多嘞它一般也不敢搞那很朔的,搞那很朔的的话嘞它这个牌子也不好搞,
G0001
现在咯拼多多它就是,现在是属于第二杂
G0001
第,反正是超过淘感感觉跟上淘宝哒咯,它也上市哒是吧,
G0001
我知道我晓得晓得晓得,
G0001
我以前以前觉得那哈批发的地方反正还可以咯,但是有一次我不是都那哈广州那哈批发市场克啵,
G0001
他里讲都那杂地方反正是一泡衣服都是论斤买的嘛,
G0001
恩好多好多钱一斤然后几百件几十件的买起回来,然后就几百件几十几十块钱的买一件买起出克
G0001
那那哈衣服我感觉确实
G0001
何解讲咯,骗咖反正洗伽之后啊熨咖之后啊看起来还可以,但是实际上的话那哈衣服确实还是不蛮好,
G0001
那现在的话现在咯啊网上的咯哈便宜的咯啊衣服的话有时几有时候也是不放心嘞其实,
G0001
它很多毕竟它喊咯啊厂家出厂啦,
G0001
很多东西都讲不定,恩看不见嘛对啵,恩只能够说买到你手上啦恩洗干净点阿子,
G0001
可能嘞就心里放心点,
G0001
有毒物质咯,那那材料啊东西,
G0001
是的是的,我上次跟我老公买咖两件那哈那哈冬天马上换季节那哈长袖子,
G0001
那哈T恤都网上看哒那哈照片呐东西啊都蛮好,
G0001
后边送得我手上嘞买的一件黑色的嘞他发得我的是一件灰色的,
G0001
买的那哈图片那哈样式嘞也不是那哈样式,便宜是便宜咯二三十块钱一件,
G0001
我老公讲的再也不都咯杂网上买咯鬼哒,
G0001
哎恩恩喜欢买买衣服吧,我我屋里老公我感觉他反正每杂季节他就是两套衣服换哒穿,
G0001
也也些话的,他反正只要主要是要买得好咯,恩说咯啊二三十块钱一件的他咯穿哒一两回他就不爱哒,
G0001
所以我干脆就懒得给他买,每次他的衣服嘞反正都是克逛街,都街上克买,
G0001
对对对,男士的话我感觉还是咯啊衣服还是讲究一点阿子,啊女生的话恩像我我一年
G0001
一一个月我至少要买泡把套衣服,我要买得贵,我会会做自噶买穷克,
G0001
反正都网上看哒咯啊样式好的呀买起回来穿哒一两回又要得哒,
G0001
反正一年四季要要换新的,
G0001
对对对那是肯定的,
G0001
恩说恩恩像我里如果到外边克那哈步行街啊东西,恩恩走得街上克,
G0001
呃反正那一排的店子咯,一排的店子可能
G0001
四五十杂店子有三四杂是男装,其他全部都是女装,
G0001
那讲啊子咯哈喫东西看呐,
G0001
你一般是
G0001
你一般是都屋里喫还是都外边喫嘞,
G0001
他现他现在咯哈外边的咯哈
G0001
嗯咯哈饭菜啊东西啊好像都不是不是很很很很嗍里,
G0001
是的嘞是的嘞,咯杂一一讲起咯啊喫东西嘞现在咯不是点外卖的嘞特别多啦,
G0001
然后然后那那哈那哈外卖嘞我我弟弟他前一向子开始都长沙咯里开始
G0001
送外卖嘛啊他不是送外卖他是跑腿的那种咯,
G0001
然后也有那种点餐送的,
G0001
然后他就跟我讲他说
G0001
那咯啊外卖姐姐你以后还是少喫点,我说何解嘞?
G0001
我克送外卖啊有些的那哈店子啊我门店都找不得,基本上就是那哈小区里面呐别人家都屋里就是搞杂
G0001
都屋里就是开始炒菜,搞买点咯材料几啊买点咯打包盒啊就在的屋里就是杂外卖店子,
G0001
他就不哒咯我们平时几都外边克喫东西还有杂那哈店咯,恩可以坐得里面喫的,他冇得,他就是一杂都屋里,
G0001
一杂咯啊小一个咯啊小地方几啊,喔啊哈说有一次克一杂喔嗯
G0001
店子邋遢死里一杂喔啊屋里,有只三个人都咯里反正一杂炒菜,一杂洗菜啊还一杂装盘子,
G0001
我哈说我的天呐咯啊外卖我咯会吓死克喫哒,
G0001
哦那你克喫那不是一
G0001
个把星期就轮得一遍的,
G0001
嗯那还是可以,
G0001
我一嘞我一带带细伢子都屋里嘞,平常时几,有时间他一困觉哒我就可以搞哈饭喫,
G0001
他一不困觉一直吵嘞喔我就只能够点外卖哒,咯
G0001
反正我现在点外卖他咯哈有很有很多咯哈券啦是啵,
G0001
恩比如说他咯啊满三十五减二十五啊,
G0001
我一想哒咯啊东西他到底赚钱不赚钱啦我的天呐我有时几点杂外卖,
G0001
一般搞得咯八九块钱好大一份饭呐,还送那哈饮料啊咯啊东西,
G0001
我们喫哒嘞是感觉占占占哒大便宜一样,
G0001
他有那哈券啦喔啊满减是啵,我每次都反正找那哈
G0001
找那哈有很多券的,然后嘞他那哈每不同的店他就有那种新客优惠,
G0001
恩里是第一次都他的店里消费的话嘞他就
G0001
他就会有有又有额外的那啊优惠,咯里减两块呀那里减两块呀那不就
G0001
那不就只有八九块钱哒,
G0001
两杂都都有都有啊,都喫轮哒喫呀,反正我基本上美团我周围的那哈店子都被我喫伽一遍哒,
G0001
恩咯反正你也要喫要要要喫饭呐,咯每次反正就是
G0001
一杂一杂的来嘞,反正不同的店子每杂新店子他都有优惠嘞,
G0001
是的咯反正喫的多的话嘞,恩像我老公他都公司里面的话也是每天喫外卖,
G0001
他一年四季跟我讲他说我今日喫外卖喫哒六块钱,我说六块钱能够喫么子东西啦,
G0001
他说六块钱就多啦,
G0001
我有几杂菜啦,我说何解的嘞,哈说咯减啦,咯里减喔里减然后现在哈咯啊
G0001
呃美团跟那饿了吗哈都推广那啊活动,就是你可能是五块钱六块钱买四张券,
G0001
四张券嘞等于说是四张五块钱的券,等于就是二十块钱,恩以后每次买
G0001
每次再点外卖的话嘞你咯杂券就可以克抵钱,等于说六块钱买咖二十块钱的东西咯,
G0001
喔还是划得来,我我买咖好多那哈券,
G0001
所以我讲有有时几只哈咯哈券的话嘞,对于我们咯啊消费者而言我觉得还是很划得来,
G0001
但是对他们商家而言嘞那我就不晓得哒,
G0001
嗯应该,
G0001
我我弟弟讲的他那哈专门的就是专门跑送外卖的那哈的,
G0001
他是一个月跑哒送咖三百单,他就是他就是两块钱一单吧好像是,
G0001
如果送哒五百单他就是五块钱一单,如果送哒一千单或者是再往上
G0001
就是九块钱一单,他是咯样来的,
G0001
他是都那啊公司的话他是等等于说是反正就是恩送的越多,恩的单价就越高,
G0001
恩主要是恩送不来,恩如果超时哒呀,一些咯哈东西搞还搞搞不好啊反而还要扣钱,
G0001
他扣钱就扣的厉害咯对吧,恩赚钱恩两两块钱一单,恩随便扣一哈,
G0001
是的嘞,上一次上一次我弟弟他
G0001
他是送一份炒饭,
G0001
两杯豆浆,
G0001
给一杂人然后嘞超时哒,超咖十分钟,
G0001
因为哈一次性接咖五杂单都是顺路咯,但是嘞还是冇搞得来嘛,
G0001
咯嘎搞咯多巴多总总会失误,好然后那杂人嘞那就屄他就他就不要哒,他说我退单,
G0001
好然后我弟弟嘞就打电话把得那杂商家说咯杂人退单恩同意咯,然后商家又讲

Corpus

This dataset is built from Magicdata ASR-CCHSHDIACSC: A CHINESE CHANGSHA DIALECT CONVERSATIONAL SPEECH CORPUS

This corpus is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License. Please refer to the license for further information.

Modifications: The audio is split in sentences based on the time span on the transcription file. Sentences that span less than 1 second is discarded. Topics of conversation is removed.

Usage

To load this dataset, use

from datasets import load_dataset
dialect_corpus = load_dataset("TingChen-ppmc/Changsha_Dialect_Conversational_Speech_Corpus")

This dataset only has train split. To split out a test split, use

from datasets import load_dataset
train_split = load_dataset("TingChen-ppmc/Changsha_Dialect_Conversational_Speech_Corpus", split="train")
# where test=0.5 denotes 0.5 of the dataset will be split to test split
corpus = train_split.train_test_split(test=0.5)

A sample data would be

# note this data is from the Nanchang Dialect corpus, the data format is shared
{'audio': 
    {'path': 'A0001_S001_0_G0001_0.WAV',
       'array': array([-0.00030518, -0.00039673, 
                     -0.00036621, ..., 	-0.00064087,
                      -0.00015259, -0.00042725]),
       'sampling_rate': 16000},
 'gender': '女',
 'speaker_id': 'G0001',
 'transcription': '北京爱数智慧语音采集'
}

More Information needed

Downloads last month
47
Edit dataset card

Models trained or fine-tuned on TingChen-ppmc/Changsha_Dialect_Conversational_Speech_Corpus