src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
ABSTRACT Detta dokument presenterar en realtidsdetektering och igenkänning för att identifiera åtgärder av intresse som är involverade i den smarta TV-applikationen från kontinuerliga actionströmmar via samtidig användning av en djupkamera och en bärbar tröghetssensor. Kontinuerliga handlingsströmmar innebär att åtgärder av intresse utförs kontinuerligt och slumpmässigt bland godtyckliga handlingar av icke-intresse. Det utvecklade tillvägagångssättet består av en detekteringsdel och en igenkänningsdel. I detektionsdelen används två deskriptorer för vektordata som motsvarar de två avkänningsmetoderna för att skilja åtgärder av intresse från åtgärder av icke-intresse i kontinuerliga aktionsströmmar. De åtgärder som upptäckts som åtgärder av intresse genom båda förnimmelserna överförs sedan till erkännandedelen. I denna del klassificeras åtgärder av intresse genom att man sammanställer besluten från två klassificeringar av samarbetsrepresentationer, en klassificering med hjälp av skelettets ledpositioner och den andra klassificeringen med hjälp av tröghetssignaler. Det utvecklade tillvägagångssättet tillämpas på handgester i smart-TV-applikationen. De experimentella resultat som erhållits indikerar effektiviteten i den utvecklade metoden för att upptäcka och känna igen smarta TV-gester i kontinuerliga aktionsströmmar. INDEX TERMS detektering och igenkänning i realtid av smarta TV-gester, igenkänning i kontinuerliga aktionsströmmar, samtidig användning av djupkamera och tröghetssensor.
Dawar och Kehtarnavaz REF presenterar en detekterings- och igenkänningsmetod i realtid för att identifiera åtgärder av intresse som är involverade i den smarta TV-applikationen från kontinuerliga aktionsströmmar via samtidig användning av en djupkamera och en bärbar tröghetssensor.
3,773,766
Real-Time Continuous Detection and Recognition of Subject-Specific Smart TV Gestures via Fusion of Depth and Inertial Sensing
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
404
Processvariationer kommer i hög grad att påverka framtida mikroprocessorers stabilitet, läckageförbrukning och prestanda. Dessa variationer är särskilt skadliga för 6T SRAM (6-transistor statiska minne) strukturer och kommer att bli kritiska med fortsatt teknikskalning. I detta dokument föreslår vi nya minnesarkitekturer på chip baserat på nya 3T1D DRAM (3-transistor, 1-diod dynamiskt minne) celler. Vi erbjuder en detaljerad jämförelse mellan 6T- och 3T1D-konstruktioner i samband med en L1-datacache. Effekterna av fysikaliska variationer i en 3T1D-cache kan klumpas ihop till variationer i lagringstiderna för data. I detta dokument föreslås en rad system för uppdatering av cache och placering som är känsliga för retentionstid, och vi visar att de flesta variationerna i retentionstiden kan döljas av mikroarkitekturen när dessa system används. Vi har utfört detaljerade krets- och arkitektoniska simuleringar som antar olika grader av variabilitet i avancerade teknologin noder, och vi visar att den resulterande minnesarkitekturen kan tolerera stora processvariationer med liten eller ingen påverkan på prestanda jämfört med ideal 6T SRAM design. Dessutom är dessa konstruktioner robusta mot problem med minnescellsstabilitet och kan uppnå stora effektbesparingar. Dessa fördelar gör de nya minnesarkitekturerna till ett lovande val för variationstoleranta cachestrukturer som krävs för nästa generations mikroprocessorer. 40:e IEEE/ACM:s internationella symposium om mikroarkitektur
I detta sammanhang, Liang et. al REF föreslog 3T1D DRAM-cellen för L1-datacache.
7,855,157
Process Variation Tolerant 3T1D-Based Cache Architectures
{'venue': '40th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO 2007)', 'journal': '40th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO 2007)', 'mag_field_of_study': ['Computer Science']}
405
Abstract-Machine lärande (ML) har visat praktisk inverkan på en mängd olika tillämpningsområden. Programvaruteknik är en bördig domän där ML hjälper till att automatisera olika uppgifter. I det här dokumentet fokuserar vi på skärningspunkten mellan programvarukravteknik (RE) och ML. För att få en överblick över hur ML hjälper RE och forskningstrenderna inom detta område har vi kartlagt ett stort antal forskningsartiklar. Vi fann att effekterna av ML kan observeras när det gäller kravuppmanning, analys och specifikation, validering och hantering. Dessutom diskuterar vi i dessa kategorier det specifika problem som har lösts genom ML, de funktioner och ML-algoritmer som används samt datauppsättningar, när sådana finns tillgängliga. Vi skisserar lärdomar och föreställer oss möjliga framtida riktningar för domänen. Index Terms-Requirements Engineering, Maskininlärning, State of the art, Översikt I. INLEDNING 1 Maskininlärningsalgoritmer har visat sig ha stor praktisk betydelse inom många tillämpningsområden. Detta gäller särskilt domäner där stora databaser finns tillgängliga och ett behov av att utforska någon form av konsekvens finns eller, domäner där ett program behöver anpassa sig till förändringar [56]. Kravteknik är en kritisk del av programvaruteknik och det verkar lämpligt att använda maskininlärningsmetoder för kravtekniska uppgifter. Eftersom dokument för kravspecifikation huvudsakligen ges på naturligt språk, kan ML vara användbart genom att efterlikna mänsklig bearbetning. Syftet med detta dokument är att presentera en undersökning av hur ML gynnar befintliga strategier för förnybar energi. Mer exakt går vi vidare med följande forskningsfrågor: RQ1: Hur ser den nuvarande situationen ut i ML för RE? RQ2: Vilka inlärningsmetoder används i ML för RE? RQ3: Vilka är utmaningarna i ML för RE? RQ4: Är ML förbättra den senaste tekniken av RE? För att svara på dessa forskningsfrågor har vi genomfört en litteraturgenomgång, uppdelad i databeredning, datainsamling och dataanalysfas. Först förbereddes en söksträng baserad på forskningsfrågor, sedan gjordes en sökning över en fördefinierad uppsättning databaser och alla identifierade studier bedömdes med hjälp av titel och abstrakt. Vår litteraturöversikt är inte avsedd att vara en uttömmande studie av området, utan vi erbjuder en ögonblicksbild av det nuvarande tillståndet i hjärtat genom att låna några tekniker från Systematisk litteraturgranskning. De viktigaste bidragen i denna artikel är följande: • Vi ger en översikt över den aktuella tekniken i några av de utmaningar RE står inför och som kan hanteras genom ML. Vi fokuserar på två viktiga aspekter: -Ge en översikt över ML problemkategorier (klassificering, regression, kluster, etc.) som används för att stödja RE-uppgifter (elektrifiering, analys, validering och hantering). -Ge en översikt över de gemensamma ML-modellerna (beslutsträd, K-Nearest Neighbors, Naive Bayesian, etc.) för att ta itu med problem med förnybar energi och datamängderna, om sådana finns tillgängliga. • Vi analyserar litteraturen för att upptäcka trender och lärdomar om användningen av ML i RE. Tidningen är organiserad enligt följande. Resten av detta avsnitt ger bakgrundsinformation om ML och RE som krävs för att förstå återstoden av papperet. I avsnitt II ges en översikt över RE-uppgifter där ML har använts. I avsnitt III sammanfattar vi de viktigaste resultaten av vår studie. I avsnitt IV redogör vi slutligen för hoten mot vårt arbetes giltighet och i avsnitt V avslutas dokumentet. Machine-Learning (ML) [35] är en rad algoritmer för att ungefärligt upptäcka mönster i data. Historiskt sett är modeller och heuristik människobyggda uttömmande recept på hur ett system ska bete sig. ML grundar sig på olika förutsättningar: i stället för att förlita sig på människor för att mata in alla möjliga fall systemet kan hantera, försöker fältet extrapolera mönster från en representativ uppsättning exempel som illustrerar förväntade beteenden. Det sätt på vilket en inlärningsalgoritm fungerar försöker efterlikna det sätt på vilket människor lär sig: från en uppsättning exempel framkallas en allmän modell för ett beteende. Många inlärningsalgoritmer finns, baserade på olika visioner om hur lärande sker i praktiken [13]. Alla dessa algoritmer har gemensamt begreppet funktioner.
En översikt över automatiseringen av olika uppgifter i den övergripande kravtekniska fasen presenteras i REF.
169,037,750
A Bird's Eye View on Requirements Engineering and Machine Learning
{'venue': '2018 25th Asia-Pacific Software Engineering Conference (APSEC)', 'journal': '2018 25th Asia-Pacific Software Engineering Conference (APSEC)', 'mag_field_of_study': ['Computer Science']}
406
Vi introducerar en ny rankningsalgoritm kallad GRASSHOPPER, som rankar objekt med fokus på mångfald. Det vill säga, de översta posterna bör vara olika varandra för att ha en bred täckning av hela posten uppsättning. Många naturligt språk bearbetning uppgifter kan dra nytta av sådan mångfald rankning. Vår algoritm är baserad på slumpmässiga promenader i en absorberande Markovkedja. Vi förvandlar rangordnade objekt till absorbera stater, vilket effektivt förhindrar redundanta objekt från att få en hög rang. Vi demonstrerar GRASSHOP-PERs effektivitet när det gäller sammanfattning av utdragstext: vår algoritm rankas mellan de första och andra systemen på DUC 2004 Task 2; och på en social nätverksanalys uppgift som identifierar filmstjärnor i världen.
I REF föreslås en "mjuk" version av MMR-algoritmen Grasshopper baserad på att absorbera slumpmässig gång.
15,769,191
Improving Diversity in Ranking using Absorbing Random Walks
{'venue': 'Human Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Proceedings of the Main Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
407
Abstract-I detta dokument vi anser problemet med att maximera antalet stödda anslutningar i godtyckliga trådlösa nätverk där en överföring stöds om och endast om signal-till-interference-plus-buller förhållandet vid mottagaren är större än någon tröskel. Syftet är att välja överföringskrafter för varje anslutning för att maximera antalet anslutningar för vilka denna tröskel uppfylls. Vi anser att det är viktigt att analysera detta problem både i sin egen rätt och eftersom det uppstår som ett subproblem inom många andra områden av trådlösa nätverk. Vi studerar både komplexiteten i problemet och även presentera några spel teoretiska resultat om kapacitet som uppnås genom helt distribuerade algoritmer. Vi anser också att detta problem är intressant, eftersom det omfattar båda de kontinuerliga aspekterna (d.v.s. välja överföringsbefogenheter) samt diskreta aspekter (dvs. vilka anslutningar som ska stödjas). Våra resultat är: • Vi visar att maximera antalet stödda anslutningar är NP-hård, även när det inte finns något bakgrundsljud. Detta står i kontrast till problemet med att avgöra om en viss uppsättning anslutningar är möjlig eller inte, eftersom detta problem kan lösas genom linjär programmering. • Vi presenterar ett antal approximationsalgoritmer för problemet. Alla dessa approximationsalgoritmer körs i polynom tid och har ett approximationsförhållande som är oberoende av antalet anslutningar. • Vi undersöker en helt distribuerad algoritm och analyserar den som ett spel där en anslutning får en positiv payoff om den är framgångsrik och en negativ payoff om den misslyckas medan den sänder med icke-noll effekt. Vi visar att i detta spel finns det inte nödvändigtvis en ren Nash jämvikt men om en sådan jämvikt finns motsvarande pris anarki är oberoende av antalet anslutningar. Vi visar också att en blandad Nash-jämvikt motsvarar en probabilistisk överföringsstrategi och i detta fall finns alltid en sådan jämvikt och har ett pris på anarki som är oberoende av antalet anslutningar.
Problemet med gemensam planering och kraftfördelning är NP-hårda REF och ett suboptimalt tillvägagångssätt krävs för att maximera spektrumutnyttjandet.
16,834,223
Maximizing Capacity in Arbitrary Wireless Networks in the SINR Model: Complexity and Game Theory
{'venue': 'IEEE INFOCOM 2009', 'journal': 'IEEE INFOCOM 2009', 'mag_field_of_study': ['Computer Science']}
408
Numera använder de flesta trådlösa kommunikationssystem sammanhängande demodulation på mottagarsidan. Under dessa omständigheter är en del av den tillgängliga överföringsresursen reserverad och utnyttjad för kanaluppskattning, kallad pilotsymboler. I nya standarder, till exempel långsiktig utveckling (LTE), är en viss justering tillåten för den effekt som utstrålas på pilotsymbolerna. Denna ytterligare frihet skapar utrymme för ytterligare optimering av systemets prestanda. I denna artikel, Vi överväger en ortogonal frekvensdelning multiplexing system och undersöka hur man distribuerar den tillgängliga kraften mellan datasymboler och pilotsymboler under överföringar över tidsvarianta kanaler så att den totala genomströmningen maximeras. Vi väljer signal-till-interferens och bullerförhållandet efter utjämning som kostnadsfunktion och löser problemet analytiskt. Simuleringsresultat som erhållits av LTE-simulatorn i Wien överensstämmer med analysresultaten. Med en optimal effektfördelning mellan data och pilotsymboler kan en genomströmningsökning på cirka 10 % uppnås jämfört med ett system med jämnt fördelad effekt mellan data och pilotsymboler.
Simko, Wang och Rupp REF överväger optimal effektfördelning mellan pilot- och datasymboler i ett OFDM-system och tillämpar det på ett LTE-system.
18,152,925
Optimal pilot symbol power allocation under time-variant channels
{'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']}
409
Abstract-Scatterplots förblir en av de mest populära och allmänt använda visuella representationer för flerdimensionella data på grund av deras enkelhet, förtrogenhet och visuell klarhet, även om de saknar en del av flexibiliteten och visuell expressivitet av nyare flerdimensionella visualiseringstekniker. I detta dokument presenteras nya interaktiva metoder för att utforska flerdimensionella data med hjälp av scatterplots. Denna undersökning utförs med hjälp av en matris av scatterplots som ger en översikt över möjliga konfigurationer, miniatyrer av scatterplots, och stöd för interaktiv navigering i det multidimensionella utrymmet. Övergångar mellan scatterplots utförs som animerade rotationer i 3D utrymme, något lik rullande tärningar. Användare kan iterativt bygga frågor med begränsande volymer i datasetet, skulptera frågan från olika synvinklar för att bli mer och mer förfinad. Dessutom kan dimensionerna i navigeringsutrymmet omordnas, manuellt eller automatiskt, för att belysa framträdande korrelationer och skillnader mellan dem. Ett exempel scenario presenterar interaktionstekniker som stöder smidig och enkel visuell undersökning av flerdimensionella datauppsättningar.
Detta formulär kan stödja bättre interaktiv navigering i flerdimensionella utrymmen REF genom att visa och överväga övergångar mellan olika spridningsplotter som animerade rotationer i 3D-utrymme.
541,489
Rolling the Dice: Multidimensional Visual Exploration using Scatterplot Matrix Navigation
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
410
Sammanfattning Många förhandlingar i den verkliga världen kännetecknas av ofullständig information, och deltagarnas framgång beror på deras förmåga att avslöja information på ett sätt som underlättar avtal utan att äventyra deras individuella vinst. Detta dokument presenterar en agent-design som kan förhandla skickligt med människor i miljöer där agenter kan välja att sanningsenligt avslöja sin privata information innan de deltar i flera förhandlingsrundor. Sådana inställningar är jämförbara med verkliga situationer där människor måste besluta om de ska lämna ut information, t.ex. vid förhandlingar om hälsoplaner och affärstransaktioner. Agenten kombinerade ett besluts-teoretiskt tillvägagångssätt med traditionella maskininlärningsmetoder för att resonera om de sociala faktorer som påverkar spelarnas avslöjande beslut om människors förhandlingsbeteende. Det visade sig överträffa såväl människor som agenter som spelar spelets jämviktsstrategi i empiriska studier som spänner över hundratals ämnen. Det var också mer sannolikt att nå en överenskommelse än människor eller agenter som spelade jämviktsstrategier. Dessutom hade det en positiv effekt på människors spel, vilket gjorde det möjligt för dem att uppnå betydligt bättre prestanda jämfört med människors spel med andra människor. Dessa resultat visas generalisera för två olika inställningar som varierade hur spelarna är beroende av varandra i förhandlingarna.
Peled m.fl. REF konstruera en agentmodell för avslöjande spel, där spelarna kan besluta att sanningsenligt avslöja sina mål innan de deltar i två förhandlingsrundor.
1,655,163
A study of computational and human strategies in revelation games
{'venue': 'Autonomous Agents and Multi-Agent Systems', 'journal': 'Autonomous Agents and Multi-Agent Systems', 'mag_field_of_study': ['Computer Science']}
411
I detta papper presenterar vi en ny paketleveranssensor data som innehåller en onormal hieh termerature C t Stor skala med tusentals tätt placerade noder, och Otillförlitlig natur av trådlösa länkar ". De flesta av de nuvarande QoS-avsättningsprotokollen [2], [3], [4], [51 i trådlösa ad hoc-nätverk baseras på end-to-end-sökvägsfynd, resursreservation längs den upptäckta sökvägen och sökvägsåterställning vid topologiändringar. Sådana metoder är dock inte lämpliga för sensornätverkstillämpningar med ovanstående egenskaper av många skäl. För det första är det inte acceptabelt att upptäcka vägens latens för brådskande periodiska paket. För de oförutsägbara periodiska paketen är det inte heller praktiskt att reservera resurser längs end-to-end-vägen. Även för periodisk kontinuerlig trafik är de end-to-end-baserade mekanismerna problematiska i dynamiska sensornätverk, eftersom driftsavbrott under vägåterställningen inte är acceptabelt i uppdragskritiska tillämpningar. Dessutom är tillvägagångssätten inte skalbara på grund av stora overhead av väg upptäckt och återvinning i storskaliga sensornätverk. Nyligen genomförda QoS-studier i sensornätverk [6]. [7], [8] fokusera på endast en QoS-domän, antingen aktualitet eller tillförlitlighet. De är också begränsade när det gäller att differentiera trafiktjänster med olika aktualitets- och tillförlitlighetskrav. En annan studie [9] kan garantera de olika realtidskraven genom att genomföra EDF:s paketplanering på ett decentraliserat sätt. Temperaturen kan levereras till kontrollcentralen och tåla en viss procentuell förlust. Å andra sidan, den senaste studien att 20% av grannen i ett radiokommunikationsområde lider mer än 10% av paketförlust. 2646 0 -~8 0 3 -8 ~~~~~~~~~z a. 0 0 (cpoos IEEE Wireless Personliga Multimedia Kommunikéer. I september 2001 antog kommissionen ett förslag till förordning om ändring av förordning (EEG) nr 4064/89 om tillämpningsföreskrifter för rådets förordning (EEG) nr 1408/71 om tillämpningen av systemen för social trygghet när anställda, egenföretagare eller deras familjer flyttar inom gemenskapen och om upphävande av förordningarna (EEG) nr 1408/71, (EEG) nr 1408/71, (EEG) nr 574/72, (EEG) nr 574/72 och (EEG) nr 574/72, (EEG) nr 574/72 och (EEG) nr 574/72 och (EEG) nr 574/72, (EEG) nr 574/72, (EEG) nr 574/72, (EEG) nr 574/72, (EEG) nr 574/72, (EEG) nr 574/72, (EEG) nr 574/72, (EEG) nr 574/72, (EEG) nr 574/72, (EEG) nr 574/72, (EG) nr 574/72, (EG) nr 574/72, (EG) nr 574/72, (EG) nr 574/72, (EUT L 22. 1261 Q. H u n g, C. Lu. och G.-C-Roman. "Spatiotemporal multicast i sensorn netwroks," i Proceedings av den första interimional konferensen om Embedded nelworked sensor syslems, November 2003.
Felemban m.fl. I REF föreslås ett protokoll som garanterar paketöverföringens aktualitet och tillförlitlighet i sensornätverk.
7,325,845
Probabilistic QoS guarantee in reliability and timeliness domains in wireless sensor networks
{'venue': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'journal': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'mag_field_of_study': ['Computer Science']}
412
Multi-Label klassificering är vanligt förekommande i många verkliga applikationer, där varje exempel kan associeras med en uppsättning av flera etiketter samtidigt. Den viktigaste utmaningen med flermärkningsklassificering kommer från det stora utrymmet för alla möjliga etikettuppsättningar, vilket är exponentiellt till antalet kandidatetiketter. De flesta tidigare arbeten fokuserar på att utnyttja korrelationer mellan olika etiketter för att underlätta inlärningsprocessen. Det antas vanligtvis att märkningens korrelationer anges i förväg eller kan härledas direkt från dataprover genom att räkna deras märkning med förekomster. Dock, i många verkliga multi-märkning uppgifter, är märkningen korrelationer inte anges och kan vara svårt att lära sig direkt från dataprover inom en måttlig storlek utbildning uppsättning. Heterogen information nätverk kan ge riklig kunskap om relationer mellan olika typer av enheter, inklusive dataprover och klass etiketter. I detta dokument föreslår vi att man använder heterogena informationsnät för att underlätta klassificeringen av flera märken. Genom att bryta kopplingsstrukturen i heterogena informationsnätverk kan flera typer av relationer mellan olika klassetiketter och dataprover extraheras. Då kan vi använda dessa relationer för att på ett effektivt sätt dra slutsatsen att det finns korrelationer mellan olika klassetiketter i allmänhet, liksom beroendena bland etiketternas uppsättningar av dataexempel som är sammankopplade i nätverket. Empiriska studier av verkliga uppgifter visar att multimärkningsklassificeringen effektivt kan förbättras med hjälp av heterogena informationsnät.
PIPL REF underlättar inlärningsprocessen med flera varumärken genom att gruvmärka korrelationer och t.ex. korrelationer från de heterogena nätverken.
369,806
Multi-label classification by mining label and instance correlations from heterogeneous information networks
{'venue': "KDD '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
413
Abstrakt. Tillgängligheten i maskinläsbar form av beskrivningar av dokumentens struktur, samt av dokumentdiskursen (t.ex. den vetenskapliga diskursen inom vetenskapliga artiklar), är avgörande för att underlätta semantisk publicering och den övergripande förståelsen av dokument för både användare och maskiner. I detta dokument introducerar vi DoCO, Document Components Ontology, en OWL 2 DL ontology som ger ett allmänt syfte strukturerat ordförråd av dokumentelement för att beskriva både strukturella och retoriska dokumentkomponenter i RDF. Förutom att beskriva den formella beskrivningen av ontologin visar denna uppsats upp sin nytta i praktiken i en mängd olika av våra egna tillämpningar och andra aktiviteter i Semantic Publishing community som förlitar sig på DoCO för att kommentera och hämta dokumentkomponenter i vetenskapliga artiklar.
I vårt sammanhang är dokumentkomponenten Ontology (DoCO) REF av särskilt intresse, eftersom den definierar ett allmänt syfte strukturerat ordförråd av dokumentelement för att beskriva både strukturella (t.ex. block, inline, stycke, avsnitt, kapitel) och retoriska (t.ex. introduktion, diskussion, erkännanden, referenslista, figur, bilaga) dokumentkomponenter i RDF.
16,391,862
The Document Components Ontology (DoCO)
{'venue': 'Semantic Web', 'journal': 'Semantic Web', 'mag_field_of_study': ['Philosophy', 'Computer Science']}
414
I den här artikeln överväger vi att avsluta probabilistiska program med verkligt värderade variabler. De frågor som berörs är följande: kvalitativa frågor som ställer (i) huruvida programmet avslutas med sannolikhet 1 (nästan säkert avslutande) och (ii) huruvida den förväntade termineringstiden är ändlig (slutlig uppsägning), och kvantitativa frågor som ber (i) att approximera den förväntade termineringstiden (förväntningsproblem) och (ii) att beräkna en bunden B så att sannolikheten att inte avsluta efter B steg minskar exponentiellt (koncentrationsproblem). För att lösa dessa frågor använder vi begreppet rankning supermartingales, vilket är ett kraftfullt tillvägagångssätt för att bevisa avslutande av probabilistiska program. I detalj fokuserar vi på algoritmisk syntes av linjär rankning-supermartingales över affin probabilistiska program (Apps) med både ängla- och demonisk icke-determinism. En viktig underklass av Apps är LRApp som definieras som den klass av alla Apps över vilken en linjär ranking-supermartingale finns. Våra viktigaste bidrag är följande: För det första visar vi att medlemskap problemet med LRApp (i) kan avgöras i polynom tid för Apps med som mest demonisk icke-determinism, och (ii) är NP-hård och i PSPACE för Apps med ängla icke-determinism. Dessutom har NP-hårdhet resultatet redan för Apps utan sannolikhet och demonisk icke-determinism. För det andra visar vi att koncentrationsproblemet över LRApp kan lösas i samma komplexitet som för medlemskap problemet med LRApp. Slutligen visar vi att förväntan problem över LRApp kan lösas i 2EXPTIME och är PSPACE-hård även för Apps utan sannolikhet och icke-determinism (dvs. deterministiska program). Våra experimentella resultat visar effektiviteten i vår strategi för att besvara de kvalitativa och kvantitativa frågorna över Apps med som mest demonisk icke-determinism.
I REF visas att det för affina probabilistiska program, en superklass av våra CP-program, finns en linjär rankning supermartingale är decidable.
44,091,565
Algorithmic Analysis of Qualitative and Quantitative Termination Problems for Affine Probabilistic Programs
{'venue': 'TOPL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
415
Interaktiv undersökning av flerdimensionella datamängder är utmanande eftersom: (1) det är svårt att förstå mönster i mer än tre dimensioner, och (2) nuvarande system ofta är ett lapptäcke av grafiska och statistiska metoder vilket gör många forskare osäkra om hur man utforskar deras data på ett ordnat sätt. Vi erbjuder en uppsättning principer och en ny rank-för-feature ram som kan göra det möjligt för användare att bättre förstå distributioner i en (1D) eller två dimensioner (2D), och sedan upptäcka relationer, kluster, luckor, outliers och andra funktioner. Användare av vårt ramverk kan visa grafiska presentationer (histogram, boxplots och scatterplots), och sedan välja ett funktionsdetekteringskriterium för att ranka 1D eller 2D axelparallell projektioner. Genom att kombinera informationsvisualiseringstekniker (översikt, samordning och dynamisk fråga) med sammanfattningar och statistiska metoder kan användare systematiskt undersöka de viktigaste 1D- och 2D-axelparallellprojektionerna. Vi sammanfattar våra Graphics, Ranking och Interaktion for Discovery (GRID) principer som: (1) studie 1D, studie 2D, sedan hitta funktioner (2) ranking guider insikt, statistik bekräfta. Vi implementerade rank-för-feature ramverket i Hierarkical Clustering Explorer, men samma principer för dataprospektering kan göra det möjligt för användare att organisera sin upptäckt process för att producera mer noggranna analyser och extrahera djupare insikter i alla flerdimensionella dataprogram, såsom kalkylblad, statistiska paket, eller informationsvisualisering verktyg. Information Visualisering (2005) 4, 96-113.
Seo och Shneiderman REF presenterar rank-för-feature-ramverket för att hitta funktioner i högdimensionella data.
7,639,956
A Rank-by-Feature Framework for Interactive Exploration of Multidimensional Data
{'venue': None, 'journal': 'Information Visualization', 'mag_field_of_study': ['Computer Science']}
416
Det har varit betydande intresse och framsteg nyligen i algoritmer som löser regressionsproblem som involverar höga och tunna matriser i inmatning sparty tid. Med tanke på en n × d matris där n d, dessa algoritmer hitta en approximation med färre rader, så att man kan lösa ett poly(d) storlek problem istället. I praktiken uppnås de bästa föreställningarna ofta genom att åberopa dessa rutiner på ett iterativt sätt. Vi visar dessa iterativa metoder kan anpassas för att ge teoretiska garantier jämförbara med och bättre än den nuvarande tekniken. Våra metoder bygger på att beräkna betydelsen av raderna, så kallade hävstångspoäng, på ett iterativt sätt. Vi visar att alternerande mellan att beräkna en kort matris uppskattning och att hitta mer exakt ungefärlig hävstångseffekt poäng leder till en serie geometriskt mindre fall. Detta ger en algoritm vars drifttid är input sparity plus en overhead jämförbar med kostnaden för att lösa ett regressionsproblem på mindre approximation. Våra resultat bygger på det nära sambandet mellan randomiserade matrisalgoritmer, iterativa metoder och graf sparifiering.
I REF föreslogs en algoritm baserad på radernas betydelse.
2,809,433
Iterative Row Sampling
{'venue': '2013 IEEE 54th Annual Symposium on Foundations of Computer Science', 'journal': '2013 IEEE 54th Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
417
Bakgrund: Feber är en av de vanligaste biverkningarna med vacciner. De detaljerade mekanismerna för feber och vaccinassocierade geninteraktionsnätverk är inte helt klarlagda. I den aktuella studien använde vi en genom-wide, Centrality and Ontology-baserad Network Discovery med hjälp av litteraturdata (CONDL) för att analysera gener och geninteraktionsnätverk i samband med feber eller vaccinrelaterade febersvar. Resultat: Över 170.000 feberrelaterade artiklar från PubMed abstracts och titlar återfanns och analyserades på meningsnivå med hjälp av tekniker för bearbetning av naturligt språk för att identifiera gener och vacciner (inklusive 186 vaccine ontologitermer) samt deras interaktioner. Detta resulterade i ett generiskt febernätverk bestående av 403 gener och 577 geninteraktioner. Ett vaccinspecifikt undernätverk för feber bestående av 29 gener och 28 geninteraktioner utvanns ur artiklar som är relaterade till både feber och vacciner. Dessutom identifierades interaktioner mellan genvacciner. Vacciner (inklusive 4 specifika vaccinnamn) visade sig interagera direkt med 26 gener. Genuppsättning anrikningsanalys utfördes med hjälp av generna i de genererade interaktionsnätverken. Dessutom prioriterades generna i dessa nätverk med hjälp av nätcentralitetsmått. Att göra vetenskapliga upptäckter och generera nya hypoteser var möjligt genom att använda nätverk centralitet och genuppsättning anrikning analyser. Till exempel, vår studie fann att generna i det generiska febernätverket var mer berikade i celldöd och svar på sår, och vaccinet sub-nätverk hade mer genberikning i leukocytaktivering och fosforylering reglering. De mest centrala generna i det vaccinspecifika febernätverket förväntas vara mycket relevanta för vaccininducerad feber, medan gener som endast är centrala i det generiska febernätverket sannolikt är mycket relevanta för det generiska febersvaret. Det är intressant att lägga märke till att det inte fanns några avgiftsliknande receptorer (TLR) i det genvaccinerade interaktionsnätverket. Eftersom flera TLR påträffades i det generiska febernätverket är det rimligt att anta att vaccin-TLR-interaktioner kan spela en viktig roll för att framkalla febersvar, vilket förtjänar ytterligare en undersökning.
Man genererar automatiskt ett interaktionsnätverk som beskriver genengagemang i vaccinrelaterad feber med 170 000 citeringar från en PubMed-sökning och en vaccinspecifik ontologi REF.
1,522,149
Identification of fever and vaccine-associated gene interaction networks using ontology-based literature mining
{'venue': 'Journal of Biomedical Semantics', 'journal': 'Journal of Biomedical Semantics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
418
I sponsrad sökning, annonser (förkortade annons) slots vanligtvis säljs av en sökmotor till en annonsör genom en auktionsmekanism där annonsörer bud på sökord. I teorin har auktionsmekanismer många önskvärda ekonomiska egenskaper. Keyword auktioner har dock ett antal begränsningar, bland annat: osäkerheten i betalpriser för annonsörer, volatiliteten i sökmotorns intäkter, och den svaga lojaliteten mellan annonsör och sökmotor. I den här artikeln föreslår vi ett särskilt annonsalternativ som lindrar dessa problem. I vårt förslag kan en annonsör köpa ett alternativ från en sökmotor i förväg genom att betala en startavgift, känd som optionspriset. Annonsören har då rätt, men ingen skyldighet, att köpa bland den förspecificerade uppsättningen sökord på de fasta kostnad-per-klick (CPC) för ett angivet antal klick i en viss tidsperiod. Det föreslagna alternativet är nära relaterat till ett särskilt exotiskt alternativ i finans som innehåller flera underliggande tillgångar (multi-keyword) och är också multi-utövande (multi-klick). Denna nya struktur har många fördelar: annonsörer kan ha minskat osäkerheten i reklam; sökmotorn kan förbättra annonsörernas lojalitet samt få stabila och ökade förväntade intäkter över tid. Eftersom det föreslagna annonsalternativet kan genomföras i samband med de befintliga nyckelordsauktionerna måste optionspriset och motsvarande fasta konsumentskyddsklausuler fastställas på ett sådant sätt att det inte förekommer någon arbitrage mellan de två marknaderna. Alternativ prissättningsmetoder diskuteras och våra experimentella resultat validerar utvecklingen. Jämfört med sökord auktioner, en sökmotor kan ha en ökad förväntad intäkter genom att sälja en annons alternativ.
I REF gör kontrakten det möjligt för annonsörer att rikta flera sökord i sponsrad sökning.
1,879,613
Multi-Keyword Multi-Click Advertisement Option Contracts for Sponsored Search
{'venue': 'TIST', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
419
I detta dokument presenteras ett nytt tillvägagångssätt för dynamisk övervakning av operativsystemets kärnintegritet, baserat på en egenskap som kallas statsbaserad kontrollflödesintegritet (SBCFI). Brott mot SBCFI signalerar en ihållande, oväntad ändring av kärnans kontrollflödeskurva. Vi gjorde en grundlig analys av 25 Linux rootkits och fann att 24 (96 %) använder ihållande kontroll-flödesändringar; en informell studie av Windows rootkits gav liknande resultat. Vi har implementerat SBCFI efterlevnad som en del av Xen och VMware virtuella maskinmonitorer. Vår implementation upptäckte alla kontrollflödesmodifierande rootkits vi kunde installera, samtidigt som omärkbara overheads infördes för både en typisk webbserver arbetsbelastning och CPU-intensiva arbetsbelastningar vid drift med 10 sekunders intervall.
Petroni m.fl. föreslog en tillståndsbaserad kontrollflödesintegritet (SBCFI) monitor REF som detekterar kärnrootkit genom att regelbundet ögonblicksbilda minnet i en virtuell dator.
14,014,247
Automated detection of persistent kernel control-flow attacks
{'venue': "CCS '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
420
Abstract-The utseende-baserat tillvägagångssätt för ansiktsdetektion har sett stora framsteg under de senaste åren. I detta tillvägagångssätt lär vi oss bildstatistiken som beskriver strukturmönstret (utseendet) för objektklassen som vi vill upptäcka, t.ex. ansiktet. Detta tillvägagångssätt har dock haft begränsad framgång när det gäller att ge en exakt och detaljerad beskrivning av de inre ansiktsdragen, dvs. ögon, bryn, näsa och mun. I allmänhet beror detta på den begränsade information som bärs av den inlärda statistiska modellen. Medan ansiktsmallen är relativt rik på textur, ansiktsdrag (t.ex. ögon, näsa och mun) inte bär tillräckligt diskriminerande information för att skilja dem från alla möjliga bakgrundsbilder. Vi löser detta problem genom att lägga till kontextinformation för varje ansiktsdrag i utformningen av den statistiska modellen. I det föreslagna tillvägagångssättet definierar kontextinformationen den bildstatistik som är mest korrelerad med omgivningen för varje ansiktskomponent. Detta innebär att när vi söker efter en ansikts- eller ansiktsfunktion, letar vi efter de platser som mest liknar funktionen men ändå är mest olik dess sammanhang. Denna olikhet med sammanhanget har tvingar detektorn att gravitera mot en exakt uppskattning av ansiktsfunktionens position. Att lära sig att diskriminera mellan funktions- och kontextmallar är dock svårt, eftersom sammanhanget och strukturen av ansiktsdrag varierar kraftigt under föränderliga uttryck, pose och belysning, och kan även likna varandra. Vi tar itu med detta problem med användningen av underklassindelningar. Vi härleder två algoritmer för att automatiskt dela upp träningsprover från varje ansiktsfunktion i en uppsättning underklasser, som var och en representerar en distinkt konstruktion av samma ansiktskomponent (t.ex. slutna eller öppna ögon) eller dess sammanhang (t.ex. olika frisyrer). Den första algoritmen är baserad på en särskiljande analysformulering. Den andra algoritmen är en förlängning av AdaBoost-metoden. Vi tillhandahåller omfattande experimentella resultat med hjälp av stillbilder och videosekvenser för totalt 3 930 bilder. Vi visar att resultaten är nästan lika bra som de som erhållits med manuell detektion.
Det arbete som utförs av Ding och Martinez Ref är särskilt relaterat till det föreslagna tillvägagångssättet.
2,589,832
Features versus Context: An Approach for Precise and Detailed Detection and Delineation of Faces and Facial Features
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
421
Abstrakt. Förutsäga varaktigheten av incidenter är viktigt för effektiv trafiktillbudshantering i realtid (TIM). I den aktuella studien används algoritmen k-Nearest Neighbor (kNN) som en icke-parametrisk regressionsmetod för att utveckla en prognosmodell för trafiktillbudets varaktighet. Tillbudsuppgifter från 2008 om den tredje motorvägens huvudlinje i Peking samlas in från det lokala rapporterings- och avsändningssystemet för tillbud. Händelseplatserna fördelas slumpmässigt längs huvudlinjen, som är 48,3 km lång och har sex tvåvägsbanor med en enkelfilig daglig volym på mer än 10000 veh. Den huvudsakliga incidenttypen som används är sideswipe och den genomsnittliga incidenttiden är 32,69 min. Den senaste en fjärdedelen av incidentposterna väljs ut som testuppsättning. Vivatrat metod används för att filtrera avvikande data för träningssetet. Incident varaktighet tid anges som den beroende variabeln i Kruskal-Wallis test, och sex attribut identifieras som de viktigaste faktorerna som påverkar varaktighetstidens längd, som är "dag första skift", "weekday", "incident typ", "överbelastning", "incident grade" och "distans". Baserat på egenskaperna hos tidsfördelningens varaktighet testas och bevisas logtransformering av originaldata förbättra modellens prestanda. Olika avståndsmått och förutsägelsealgoritmer undersöks noggrant. Resultaten visar att kNN-modellen har bättre förutsägelsenoggrannhet med hjälp av vägt avståndsmått baserat på beslutsträd och vägd förutsägelsealgoritm. Den utvecklade prediktionsmodellen jämförs ytterligare med andra modeller baserade på samma datauppsättning. Resultaten visar att den utvecklade modellen kan få rimliga förutsägelseresultat, utom för prover med extremt kort eller lång varaktighet. En sådan förutsägelsemodell kan hjälpa TIM-teamen att uppskatta incidentens varaktighet och genomföra strategier för hantering av incidenter i realtid.
I Ref föreslogs en prognosmodell baserad på icke-parametrisk regressionsmetod.
55,104,781
Application of nonparametric regression in predicting traffic incident duration
{'venue': None, 'journal': 'Transport', 'mag_field_of_study': ['Engineering']}
422
ABSTRACT Sakernas Internet (IoT) skildrar en ljus framtid, där alla enheter som har sensoriska och datorfunktioner kan interagera med varandra. Bland alla befintliga tekniker, teknikerna för den femte generationen (5G) system är den viktigaste drivkraften för aktualiseringen av IoT-konceptet. På grund av den heterogena miljön i 5G-näten och radioutsändningens karaktär är dock säkerhetsgarantin mot tjuvlyssnande en viktig men utmanande uppgift. I detta dokument fokuserar vi på överföringsdesignen för säker reläkommunikation i IoT-nätverk, där kommunikationen utsätts för tjuvlyssnare med okänt antal och platser. Randomisera-och-framåt relä strategi speciellt utformad för säker multi-hop kommunikation används i vårt överföringsprotokoll. För det första, vi anser att en enda antenn scenario, där alla enheter i nätverket är utrustade med den enda antennen. Vi härleder uttrycket för det hemliga avbrottet sannolikheten för två-hop överföring. Efter detta, en sekretess-ratimering problem som är föremål för en sekretess-outage-sannolikhet begränsning formuleras. Den optimala energiallokeringen och designen av kodordet uppnås. Dessutom generaliserar vi ovanstående analyser till ett mer generiskt scenario, där relä och tjuvlyssnare är utrustade med flera antenner. Numeriska resultat visar att korrekt användning av reläöverföring kan öka sekretessen genomströmning och utöka det säkra täckningsområdet. INDEX TERMS Internet of Things (IoT), fysisk lagersäkerhet, reläöverföring, resursfördelning, stokastisk geometri.
Därefter, SOP och den optimala maktfördelningen i vart och ett av de två scenarierna härleddes REF.
23,424,265
Security Enhancement for IoT Communications Exposed to Eavesdroppers With Uncertain Locations
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
423
Abstract-Consider en uppsättning fasta sensorer som används för att uppskatta tillståndet för ett fordon (t.ex. läge, orientering och hastighet) medan den försöker följa en förplanerad bana. Eftersom sensorn endast kan ge en mätning av fordonet när det är inom räckhåll, kommer spridningen av sensorerna att ha stor inverkan på fordonets förmåga att följa banan. Det problem som behandlas här är att optimalt placera sensorerna i miljön så att den viktade funktionen hos skattningsfelet vid varje steg minimeras. En optimeringsformulering föreslås som förklarar osäkerheten i fordonets tillstånd när det gäller att avgöra om det kan ta emot en mätning från en sensor. En konfidensnivå införs som en inställningsparameter som kontrollerar att lösningen är konservativ. Följaktligen ökar den resulterande lösningen sannolikheten för att fordonet framgångsrikt följer den avsedda banan. Slutligen, på grund av det ömsesidiga beroendet mellan sensorernas positioner, presenteras en ny inkrementell optimeringsalgoritm som avsevärt överträffar en standard icke-linjär optimering. Experimentella resultat och simuleringsresultat visas som kännetecknar den föreslagna algoritmens prestanda.
Vitus och Tomlin REF formulerade ett problem med optimal sensorplacering där ett fordon använder en begränsad uppsättning sensorfyrar i miljön för att minimera felet i navigeringsberäkningen.
8,110,683
Sensor placement for improved robotic navigation
{'venue': 'In Proc. of Robotics: Science and Systems (RSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
424
Moderna mobila enheter fortsätter att närma sig kapaciteten och extensibiliteten hos vanliga stationära datorer. Tyvärr, dessa enheter börjar också möta många av samma säkerhetshot som stationära datorer. För närvarande speglar mobila säkerhetslösningar den traditionella stationära modellen där de kör detektionstjänster på enheten. Detta tillvägagångssätt är komplext och resursintensivt i både beräkning och kraft. Detta dokument föreslår en ny modell där mobil antivirus funktionalitet flyttas till en off-device nätverkstjänst som använder flera virtualiserade malware detektion motorer. Vårt argument är att det är möjligt att spendera bandbredd resurser för att avsevärt minska device CPU, minne och kraftresurser. Vi demonstrerar hur vår in-cloud-modell förbättrar mobil säkerhet och minskar programvarans komplexitet, samtidigt som den möjliggör nya tjänster som plattformsspecifika beteendeanalysmotorer. Våra riktmärken på Nokias mobila N800- och N95-enheter visar att vår mobila agent konsumerar en storleksordning mindre CPU och minne samtidigt som den konsumerar mindre ström i vanliga scenarier jämfört med befintliga antivirusprogram on-device.
Syftet med REF är att flytta mobil antivirus funktionalitet till en in-cloud antivirus nätverkstjänst, för att spara resurser på smartphones.
7,344,578
Virtualized in-cloud security services for mobile devices
{'venue': "MobiVirt '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
425
Trots den senaste tidens framsteg när det gäller djupt förstärkande inlärning (DRL), tenderar DRL-utbildade agenter att vara sköra och känsliga för utbildningsmiljön, särskilt i de multiagentiska scenarierna. I multiagentmiljö kan en DRL-agents policy lätt fastna i en dålig lokal optima w.r.t. Utbildningspartner - den lärda politiken kan endast vara lokalt optimal för andra aktörers nuvarande politik. I detta dokument fokuserar vi på problemet med att utbilda robusta DRL-agenter med kontinuerliga åtgärder i den multiagentiska inlärningsmiljön så att de utbildade agenterna fortfarande kan generalisera när motståndarnas politik förändras. För att ta itu med detta problem föreslog vi en ny algoritm, MiniMax Multi-agent Deep Deterministic Policy Gradient (M3DDPG) med följande bidrag: (1) vi introducerar en minimax förlängning av den populära multi-agent djup deterministic policy gradient algoritm (MADDPG), för robust politiskt lärande; (2) eftersom det kontinuerliga åtgärdsutrymmet leder till beräkningsmässig intractability i vårt minimax lärande mål, föreslår vi Multi-Agent Adversarial Learning (MAAL) för att effektivt lösa vår föreslagna formulering. Vi utvärderar empiriskt vår M3DDPG-algoritm i fyra blandade kooperativa och konkurrenskraftiga multiagentmiljöer och de agenter som utbildats genom vår metod överträffar avsevärt befintliga baslinjer.
När det gäller förbättringen av MADDPG måste Minimax Multi-Agent DDPG (M3DDPG) REF noteras.
53,700,995
Robust Multi-Agent Reinforcement Learning via Minimax Deep Deterministic Policy Gradient
{'venue': 'AAAI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
426
ABSTRACT Trådlösa sensornätverk (WSN) har i stor utsträckning använts i industriella system. Industriella system kräver en hög grad av tillförlitlighet och realtidskrav inom kommunikation. I många industriella WSNs applikationer, strömmar med olika nivåer av kritiskitet samexisterar i systemet. När fel eller undantag uppstår måste högkritiska flöden garanteras på ett tillförlitligt sätt och i realtid. Det är dock bara ett fåtal verk som fokuserar på blandkritiska industrisystem. När det gäller denna fråga studerar vi i detta dokument blandkritiska industrisystem och föreslår ett tillvägagångssätt för analys av leverans- och efterfrågebundna funktioner baserat på tidigaste tidsfrist för schemaläggning. Dessutom tar vår metod hänsyn till både källrouting och grafrouting. I början, när systemet är i lågkritiskt läge, tar källrouting hänsyn till att varje flöde kan schemaläggas. När fel eller undantag inträffar, växlar systemet till högkritiskt läge, och nätverk routing vänder sig till graf routing för att garantera att viktiga flöden kan schemaläggas. Genom att uppskatta den efterfrågan som är knuten till blandkritiska system kan vi avgöra om industriella system är schepulerbara. Experiment visar hur effektivt och effektivt vårt tillvägagångssätt är.
Xia m.fl. I Ref föreslogs en resursanalysmetod baserad på en första tidsplaneringsmetod (EDF).
206,488,385
Bounding the Demand of Mixed-Criticality Industrial Wireless Sensor Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
427
simultant spel för att betraktas som fångens dilemma, måste det lyda följande ojämlikheter: Den itererade versionen av spelet används ofta för att modellera framväxande kooperativa beteenden i populationer av själviskt verkande agenter och används ofta för att modellera system i biologi [28] Abstract-This study recenserar tidigare arbete, om den evolutionära banan av agenter tränade att spela itererade fångens dilemma på en kombinatorial graf. Inverkan av olika topologier, som används för att förmedla både leken av fångens dilemma och flödet av gener under urval och ersättning, undersöks. Olika topologier för anslutning, lagrade som kombinatoriska grafer, ses över och de analysverktyg som används förbättras avsevärt. Ett nytt verktyg som kallas spelprofilen sammanfattar fördelningen av beteenden över flera repliker av den grundläggande evolutionära algoritmen och genom flera evolutionära epoker. Effekterna av att ändra antalet stater som används för att koda agenter undersöks också. Att ändra den kombinatoriska graf på vilken befolkningen bor visar sig ge statistiskt signifikanta skillnader i spelprofilerna. Att ändra antalet tillstånd i agenter har också visat sig producera statistiskt signifikanta skillnader i beteende. Användningen av flera epoker i analys av agentbeteende visar att fördelningen av beteenden förändras avsevärt under evolutionens gång. Det vanligaste mönstret är att agenter med tiden rör sig mot den kooperativa staten, men detta mönster är inte universellt. En annan tydlig trend är att agenter som genomförs med fler stater är mindre samarbetsvilliga. och (8 + T) < 20. (1) (2) Stryk det som inte är tillämpligt.
Deras undersökning visar att effekten av antalet stater en agent tilldelas har en stor inverkan i fångens dilemma på grafer, ekar och utökar resultatet REF.
14,448,665
The impact of connection topology and agent size on cooperation in the iterated prisoner's dilemma
{'venue': '2013 IEEE Conference on Computational Inteligence in Games (CIG)', 'journal': '2013 IEEE Conference on Computational Inteligence in Games (CIG)', 'mag_field_of_study': ['Computer Science']}
428
I detta dokument presenterar vi ett nytt tillvägagångssätt för medicinsk synonymextraktion. Vi strävar efter att integrera termen inbäddning med den medicinska domänkunskapen för vårdapplikationer. En fördel med vår metod är att den är mycket skalbar. Experiment på ett dataset med mer än 1M-termpar visar att det föreslagna tillvägagångssättet överträffar grundscenariot med stor marginal.
Wang et al REF presenterar ett nytt tillvägagångssätt för medicinsk synonymextraktion, som syftar till att integrera den medicinska domänkunskapen med termen inbäddning för ytterligare tillämpningar.
11,623,548
Medical Synonym Extraction with Concept Space Models
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
429
En vanlig form av sarkasm på Twitter består av en positiv känsla som kontrasteras med en negativ situation. Till exempel, många sarkastiska tweets inkluderar en positiv känsla, såsom "kärlek" eller "glädje", följt av ett uttryck som beskriver en oönskad aktivitet eller stat (t.ex., "ta examen" eller "bli ignorerad"). Vi har utvecklat en sarkasmkännare för att identifiera denna typ av sarkasm i tweets. Vi presenterar en ny bootstrapp algoritm som automatiskt lär sig listor över positiva känslofraser och negativa situation fraser från sarkastiska tweets. Vi visar att identifiera kontrasterande sammanhang med hjälp av de fraser som lärts genom bootstrappning ger bättre återkallande för sarkasm erkännande.
Riloff m.fl. REF presentera en bootstrapping algoritm som automatiskt lär sig listor över positiva känslofraser och negativa situation fraser från sarkastiska tweets.
10,168,779
Sarcasm as Contrast between a Positive Sentiment and Negative Situation
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
430
Aggregaterade lokaliseringsuppgifter används ofta för att stödja smarta tjänster och tillämpningar, till exempel för att skapa trafikkartor i realtid eller förutsäga besök i företag. I detta dokument presenterar vi den första studien om genomförbarheten av medlemsintrång attacker på aggregerad plats tidsserie. Vi inför en spelbaserad definition av den kontradiktoriska uppgiften, och kastar den som ett klassificeringsproblem där maskininlärning kan användas för att skilja mellan om en målanvändare är en del av aggregaten eller inte. Vi utvärderar empiriskt effekten av dessa attacker på både råa och differentierade privata aggregat med hjälp av två verkliga mobilitetsdataset. Vi finner att medlemsslutsatsen är ett allvarligt integritetshot, och visar hur dess effektivitet beror på motståndarens förkunskaper, egenskaperna hos de underliggande lokaliseringsdata, samt antalet användare och tidsramen på vilken aggregering utförs. Även om olika privata försvar kan verkligen minska omfattningen av attackerna, ger de också en betydande förlust i nytta. Dessutom kan en strategisk motståndare som efterliknar försvarsmekanismens beteende i hög grad begränsa det skydd de ger. Sammantaget presenterar vårt arbete en ny metod som är inriktad på att utvärdera medlemsslutsatser på aggregerade lokaliseringsdata i verkliga inställningar och kan användas av leverantörer för att bedöma kvaliteten på integritetsskyddet innan data släpps eller av tillsynsmyndigheter för att upptäcka överträdelser.
Pyrgelis m.fl. REF används maskininlärning för medlemskap slutsatser om aggregerade platsdata.
3,570,809
Knock Knock, Who's There? Membership Inference on Aggregate Location Data
{'venue': 'Proceedings of the 25th Network and Distributed System Security Symposium (NDSS 2018)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
431
I denna artikel testas och anpassas Brills regelbaserade PoS tagger för ungerska. Det har visat sig att det nuvarande systemet inte uppnår lika hög noggrannhet för ungerska som för engelska (och andra germanska språk) på grund av den strukturella skillnaden mellan dessa språk. Ungerska, till skillnad från engelska, har rik morfologi, är agglutinerande med vissa böjande egenskaper och har ganska fri ordordning. Taggern har de största svårigheterna med delar av tal som tillhör öppna klasser på grund av deras komplicerade morfologiska struktur. Det visas att märkningens noggrannhet kan ökas från cirka 83 % till 97 % genom att man helt enkelt ändrar de regelgenererande mekanismerna, nämligen de lexiska mallarna i den lexiska utbildningsmodulen.
REF har använt Brills POS tagger med utökade lexiska mallar till ungerska.
1,468,176
Improving Brill's POS Tagger For An Agglutinative Language
{'venue': 'Joint SIGDAT Conference On Empirical Methods In Natural Language Processing And Very Large Corpora', 'journal': None, 'mag_field_of_study': ['Computer Science']}
432
ABSTRACT När källkoden kopieras och klistras in eller ändras kommer det att finnas många identiska eller liknande kodslippar i programvarusystemet, som kallas kodkloner. Eftersom kodkloner tros resultera i oönskad underhållbarhet av programvara, många metoder och tekniker har föreslagits för identifiering av kodklon. De flesta av dem är dock baserade på källkoden, medan endast ett fåtal använder bytekoden för att upptäcka kodkloner. I detta dokument introducerar vi en strategi baserad på Java bytecode, som huvudsakligen innehåller stegen i bytekod sekvens anpassning och likhet poängjämförelse. I synnerhet använder vi Smith-Waterman algoritm för att anpassa bytekod sekvenser för exakt matchning. Dessutom tar vi separat hänsyn till likheterna mellan instruktionssekvenser och metodanropssekvenser, vilket förbättrar dess effektivitet när det gäller att upptäcka kodkloner. Vi genomförde ett omfattande experiment på fem program med öppen källkod för att utvärdera det föreslagna tillvägagångssättet. Resultaten visar att vår strategi överträffar andra toppmoderna tekniker.
Sheneamer och Kalita REF tillämpade Smith-Waterman algoritm för att anpassa Java bytekod sekvenser för att upptäcka Java kod kloner.
67,870,681
Detecting Java Code Clones Based on Bytecode Sequence Alignment
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
433
Vi studerar selektivitetsskattning tekniker för inställda likhetsfrågor. Ett stort antal liknande åtgärder för uppsättningar har tidigare föreslagits. I detta arbete koncentrerar vi oss på klassen av viktade likhetsmått (t.ex. TF/IDF och BM25 cosinuslikhet och varianter) och designselektivitetsskattningar baserade på ett på förhand konstruerat prov. Först studerar vi fallgropar i samband med enkla tillämpningar av slumpmässig provtagning, och hävdar att försiktighet måste tas i hur proverna är konstruerade; enhetlig slumpmässig provtagning ger mycket låg noggrannhet, medan frågekänslig realtid provtagning är dyrare än exakta lösningar (både i CPU och I / O kostnad). Vi visar hur man bygger robusta prover a priori, baserat på befintliga synopser för distinkt värdeuppskattning. Vi bevisar exaktheten i vår teknik teoretiskt, och verifierar dess prestanda experimentellt. Vår algoritm är order av magnitud snabbare än exakta lösningar och har mycket litet utrymme overhead.
Hadjieftheriou m.fl. studerade problemet med selektivitetsberäkning för uppsättning likhetsval (inte gå med) frågor REF.
2,137,616
Hashed samples: selectivity estimators for set similarity selection queries
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
434
Tillgång till realistiska, komplexa diagramdata är avgörande för forskning om sociala nätverkssystem och tillämpningar. Simuleringar av grafdata ger kritisk utvärdering av nya system och tillämpningar som sträcker sig från community detection till spamfiltrering och social webbsökning. På grund av de höga tid- och resurskostnaderna för att samla in verkliga grafdata genom direkta mätningar anonymiserar och delar ett litet antal värdefulla dataset med samhället. Utföra experiment med hjälp av delade verkliga dataset står dock inför tre stora nackdelar: oro för att grafer kan avanonymiseras för att avslöja privat information, öka kostnaderna för att distribuera stora dataset, och att ett litet antal tillgängliga sociala grafer begränsar det statistiska förtroendet för resultaten. Användningen av mätkalibrerade grafmodeller är ett attraktivt alternativ till att dela datamängder. Forskare kan "passa" en grafmodell till en verklig social graf, extrahera en uppsättning modellparametrar, och använda dem för att generera flera syntetiska grafer statistiskt liknar den ursprungliga grafen. Även om många grafmodeller har föreslagits, är det oklart om de kan producera syntetiska grafer som exakt matchar egenskaperna hos de ursprungliga graferna. I detta papper undersöker vi genomförbarheten av mätkalibrerade syntetiska grafer med hjälp av sex populära grafmodeller och en mängd verkliga sociala grafer samlade från Facebook sociala nätverk som sträcker sig från 30 000 till 3 miljoner kanter. Vi finner att två modeller konsekvent producerar syntetiska grafer med gemensamma grafmetriska värden som liknar dem i de ursprungliga graferna. Det är dock bara en som ger höga trohetsresultat i våra riktmärken på applikationsnivå. Även om detta visar att grafmodeller kan producera realistiska syntetiska grafer, belyser det också det faktum att nuvarande grafmått förblir ofullständiga, och vissa applikationer exponerar graf egenskaper som inte avbildar till befintliga mätvärden.
Sala m.fl. utforskade möjligheten att ersätta verkliga sociala grafer av sociala nätverk online med syntetiska grafer som genereras från kalibrerade grafmodeller REF.
3,023,874
Measurement-calibrated graph models for social network experiments
{'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
435
Neurala nätverk är sårbara för kontradiktoriska exempel och forskare har föreslagit många heuristiska attack- och försvarsmekanismer. Vi tar itu med detta problem genom den principiella linsen av distributions robust optimering, som garanterar prestanda under kontradiktoriska ingångar perturbationer. Genom att överväga en Lagrangian vite formulering av perturbing den underliggande datadistributionen i en Wasserstein boll, tillhandahåller vi ett utbildningsförfarande som förstärker modellparameter uppdateringar med värsta fall perturbationer av träningsdata. För smidiga förluster uppnår vårt förfarande sannolikt måttliga nivåer av robusthet med liten beräknings- eller statistisk kostnad i förhållande till empirisk riskminimering. Dessutom gör våra statistiska garantier det möjligt för oss att effektivt certifiera robustheten för befolkningsförlusten. För omärkliga perturbationer, vår metod matchar eller överträffar heuristiska metoder.
Till exempel, i kontradiktoriskt lärande Ref överväga en Wasserstein boll runt utbildningsdistributionen.
13,900,194
Certifying Some Distributional Robustness with Principled Adversarial Training
{'venue': 'ICLR', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
436
UML semantiska variationspunkter ger avsiktliga grader av frihet för tolkningen av metamodellen semantik. Intresset för semantiska variationspunkter är att UML nu blir en familj av språk som delar många gemensamma egenskaper och vissa variationer som man kan anpassa för en viss applikation domän. I det här dokumentet föreslår vi att de olika semantiska variationspunkterna i UML 2.0-statstilar återställs till egna modeller för att undvika hårdkodning av de semantiska valen i verktygen. Vi gör samma sak för olika genomförandeval. Sedan, längs linjen av OMG modell driven arkitektur, dessa semantiska och genomförande modeller bearbetas tillsammans med en källa UML modell (som kan ses som en PIM) för att ge en mål UML modell (en PSM) där alla semantiska och genomförande val görs explicit. Denna målmodell kan i sin tur tjäna som grund för en konsekvent användning av kodgenerering, simulering, modellkontroll eller testgenereringsverktyg.
Helt annorlunda föreslår REF ett tillvägagångssätt för att modellera semantiska variationspunkter och genomförandeval som klassmodeller i sig.
14,744,761
Code Generation from UML Models with Semantic Variation Points
{'venue': 'PROCEEDINGS OF MODELS/UML’2005, MONTEGO', 'journal': None, 'mag_field_of_study': ['Computer Science']}
437
Personliga webbtjänster strävar efter att anpassa sina tjänster (reklam, nyhetsartiklar etc.) till enskilda användare genom att använda både innehåll och användarinformation. Trots några framsteg på senare tid är detta problem fortfarande problematiskt av minst två skäl. För det första är webbtjänsten försedd med dynamiskt föränderliga pooler av innehåll, vilket gör traditionella samarbetsfiltreringsmetoder otillämpliga. För det andra kräver skalan av de flesta webbtjänster av praktiskt intresse lösningar som både är snabba när det gäller lärande och beräkning. I detta arbete modellerar vi personlig rekommendation av nyhetsartiklar som ett kontextuellt banditproblem, en principiell metod där en inlärningsalgoritm sekventiellt väljer artiklar för att tjäna användare baserat på kontextuell information om användare och artiklar, samtidigt som den anpassar sin artikel-urvalsstrategi baserat på användar-klick feedback för att maximera totala användarklick. Bidragen från detta arbete är trefaldiga. För det första föreslår vi en ny, allmän kontextuell banditalgoritm som är beräkningseffektiv och väl motiverad av inlärningsteori. För det andra hävdar vi att alla banditalgoritmer kan utvärderas tillförlitligt offline med hjälp av tidigare inspelade slumpmässig trafik. Slutligen, med hjälp av denna offline utvärderingsmetod, har vi framgångsrikt tillämpat vår nya algoritm till en Yahoo! Front Page Today Module dataset med över 33 miljoner händelser. Resultaten visade en 12,5% klicklyft jämfört med en vanlig sammanhangsfri banditalgoritm, och fördelen blir ännu större när data blir mer knapp.
I detta arbete modellerar vi problemet med videokvalitetsanpassning som ett kontextuellt banditproblem som förutsätter en linjär parametrisering, som framgångsrikt har använts, t.ex. för annonsplacering REF.
207,178,795
A contextual-bandit approach to personalized news article recommendation
{'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
438
Vi undersöker i vilken utsträckning sociala band mellan människor kan härledas från samtidig förekomst i tid och rum: Med tanke på att två personer har varit på ungefär samma geografiska plats ungefär samtidigt, vid flera tillfällen, hur troligt är det att de känner varandra? Dessutom, hur beror denna sannolikhet på den rumsliga och tidsmässiga närheten av samtidiga händelser? Sådana problem uppstår i data med ursprung i både online- och offlinedomäner samt inställningar som fångar gränssnitt mellan online- och offlinebeteende. Här utvecklar vi en ram för kvantifiering av svaren på sådana frågor, och vi tillämpar denna ram på offentligt tillgängliga data från en webbplats för sociala medier, där vi konstaterar att även ett mycket litet antal samtidiga händelser kan resultera i en hög empirisk sannolikhet för ett socialt samband. Vi presenterar sedan probabilistiska modeller som visar hur så stora sannolikheter kan uppstå från en naturlig modell av närhet och sam-förekomst i närvaro av sociala band. Förutom att tillhandahålla en metod för att fastställa några av de första kvantifierbara uppskattningarna av dessa åtgärder, har våra resultat potentiella konsekvenser för privatlivet, särskilt för hur sociala strukturer kan härledas från offentliga online-register som fångar individers fysiska platser över tiden. data science på grund av integritet, probabilistiska modeller, sociala nätverk E redan idag, gör vi slutsatser om den sociala världen från ofullständiga observationer av händelser runt omkring oss. En särskild kategori av sådana slutsatser bygger på samtidiga uppskattningar i rymden och tidsbaserade uppskattningar av ett socialt band mellan två personer på det faktum att de befann sig på samma geografiska plats ungefär samtidigt. Förutom dess intuitiva tillgänglighet har sådana resonemang använts i psykologiska studier av stadslivet (1) och juridiska analyser av farorna med "skuld efter association" (2, 3). Dessa frågor uppstår också naturligt i online-domäner, inklusive de som återspeglar spatio-temporala spår av sina användares aktiviteter i den fysiska världen. Trots den breda relevansen hos de underliggande frågorna har det dock i grund och botten inte funnits någon exakt grund för att kvantifiera betydelsen av dessa effekter. Här studerar vi denna fråga i en online-miljö och finner att geografiska sammanfall i själva verket kan ha betydande makt att bilda slutsatser om sociala band: Kunskapen om att två personer var proximata på bara några olika platser vid ungefär samma tidpunkter kan tyda på en hög villkorlig sannolikhet att de är direkt kopplade i det underliggande sociala nätverket, i de data vi anser. Våra resultat använder offentligt tillgänglig rumslig och tidsbunden information från en stor webbplats för sociala medier för att härleda uppskattningar av länkar i webbplatsens sociala nätverk online. Vi utvecklar också en probabilistisk modell för att redogöra för de höga sannolikheter som observeras. Förutom att tillhandahålla en kvantitativ grund för dessa slutsatser får våra resultat konsekvenser för det oavsiktliga läckaget av privat information genom deltagande på sådana platser. Vår analys använder data där individer ägnar sig åt aktiviteter på kända platser och tider. Det finns många potentiella källor till sådana uppgifter, inklusive transaktionsregister från mobiltelefoner, offentliga transiteringssystem och kreditkortsleverantörer. Vi använder en källa där liknande aktiviteter registreras offentligt och online: en storskalig datauppsättning från den populära fotodelningssajten Flickr. De flesta foton som laddas upp till Flickr inkluderar den tid då bilden togs, som rapporterats av en klocka i den digitala kameran, och många bilder är också geo-taggade med en latitud-longitud koordinat som visar var på jorden fotografiet togs. Dessa geotaggar anges antingen av fotografen genom att klicka på en karta på Flickr webbplats, eller (i ökande utsträckning) produceras av en global positioneringssystem (GPS) mottagare i kameran eller mobiltelefon. Flickr innehåller också ett offentligt socialt nätverk där användarna specificerar sociala band till andra användare. Spatio-Temporal Co-occurences and Social Ties Vi definierar en spatiotemporal co-occurence mellan två Flickr användare som en instans där de båda tog bilder på ungefär samma plats och ungefär samtidigt. I synnerhet delar vi upp jordens yta i rutnätsliknande celler, vars sidolängder spänner över grader av latitud och longitud. Vi säger att två personer A och B co-occurred i en given s × s cell C, på temporal avstånd t, om både A och B tog bilder geo-taggade med en plats i cell C inom t dagar av varandra. Sedan, för ett givet par människor, räknar vi antalet distinkta celler i vilka de hade en samtidig förekomst på temporal avstånd t. Till exempel, i Bild. 1, A och B har tre samtidiga förekomster på ett temporalt intervall av 2, och fyra samtidiga förekomster på ett temporalt intervall av 7. Vår centrala fråga är följande: Hur stor är sannolikheten för att två personer har en social slips, med tanke på att de har samtidiga förekomster i k distinkta celler vid ett temporalt intervall av t? Detta är en fråga som är relevant i alla sammanhang där samförekomster kan tyda på sociala band, och vi betonar att vår metod för att utforska det är en allmän; eftersom Flickr i synnerhet ger spatio-temporal information och även en uttrycklig lista över sociala band bland sina användare, är det en naturlig domän där man kan beräkna konkreta numeriska svar på frågan. Svaren beror på tre parametrar: antalet samtidiga händelser k (med angivande av mängden bevis för en social slips) tillsammans med cellstorleken s och tidsintervallet t (med angivande av bevisets precision). Vi beräknar sannolikheten som en funktion av dessa parametrar genom att först bygga det sociala nätverket av Flickr med hjälp av alla vänskapslänkar som deklarerats fram till april 2008 och sedan identifiera spatio-temporala samtidiga händelser som inträffade efter april 2008. På så sätt, och i överensstämmelse med vår ursprungliga motivation, identifierar vi bara sociala band som existerade innan bevisen ansamlades via samtidiga händelser (detta förklaras mer i detalj i diskussionen). Med hjälp av en datauppsättning på 38 miljoner geo-taggade bilder från Flickr (se Material och metoder för mer detaljer) hittar vi (Fig. 2) att sannolikheten för en social slips ökar kraftigt när antalet samtidiga händelser k ökar och tidsintervallet t minskar. Vad som kanske är mest slående är inte riktningen för detta beroende, utan snarare de stora värdena för sannolikheterna själva i förhållande till sannolikheten för att ha ett socialt samband. Två
Crandall m.fl. I REF kan man sluta sig till sociala band med hjälp av geografisk närhet mellan två Flickr-användare.
14,199,048
Inferring social ties from geographic coincidences
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']}
439
I detta dokument föreslås en metod för erkännande av mänsklig aktivitet som bygger på funktioner som man lärt sig av 3D-videodata utan att införliva domänkunskap. Experimenten på data som samlas in av RGBD-kameror ger resultat som överträffar andra tekniker. Vår funktionskodning metod följer påse-of-visual-word modell, sedan använder vi en SVM klassificerare för att känna igen aktiviteterna. Vi använder inte skelett eller spårningsinformation och samma teknik tillämpas på färg- och djupdata.
En annan metod som användes för åtgärdsigenkänning är baserad på funktioner från 3D-videodata som tillämpar oberoende subrymdsanalys (ISA) teknik på data som samlats in av RGBD-kameror som i REF och de följde påse-of-visual-word modell och en SVM klassificerare för att känna igen aktiviteterna.
8,094,759
Feature Learning for Interaction Activity Recognition in RGBD Videos
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
440
Ett mycket enkelt sätt att förbättra prestandan hos nästan alla maskininlärningsalgoritmer är att träna många olika modeller på samma data och sedan att i genomsnitt deras förutsägelser [3]. Tyvärr, att göra förutsägelser med hjälp av en hel ensemble av modeller är besvärligt och kan vara alltför beräknings dyrt för att tillåta spridning till ett stort antal användare, särskilt om de enskilda modellerna är stora neurala nät. Caruana och hans medarbetare [1] har visat att det är möjligt att komprimera kunskapen i en ensemble till en enda modell som är mycket lättare att använda och vi utvecklar denna metod vidare med hjälp av en annan kompressionsteknik. Vi uppnår överraskande resultat på MNIST och vi visar att vi avsevärt kan förbättra den akustiska modellen av ett kraftigt använt kommersiellt system genom att destillera kunskapen i en ensemble av modeller till en enda modell. Vi introducerar också en ny typ av ensemble som består av en eller flera fullständiga modeller och många specialiserade modeller som lär sig att skilja på finkorniga klasser som de fullständiga modellerna förvirrar. Till skillnad från en blandning av experter kan dessa specialmodeller utbildas snabbt och parallellt.
Modelldestillation REF ) är en ny metod för att kombinera olika fall av samma modell till en enda.
7,200,347
Distilling the Knowledge in a Neural Network
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
441
Trådlösa sensornätverk används ofta i obemannade och fientliga miljöer. På grund av resursbegränsningarna och multihopkommunikationen i WSN är selektiva vidaresändningsattacker som initieras av komprometterade insidernoder ett allvarligt hot. Ett förtroende-baserat system för att identifiera och isolera skadliga noder föreslås och en blandad strategi och en kontinuerlig strategi Monitor-Forward spel mellan avsändare noden och dess en-hop angränsande nod är konstruerad för att minska de selektiva släppa attacker i WSN. Det kontinuerliga spelet kommer att minska falska positiva på paket släppa upptäckt på opålitlig trådlös kommunikationskanal. Simuleringsresultat visar att kontinuerlig Monitor-Forward spelbaserad selektiv vidarebefordringslösning är en effektiv metod för att identifiera de selektiva vidarebefordringsattackerna i WSN.
Med tanke på den öppna arbetsmiljön och den begränsade energiresursen i nätet, är en blandad och kontinuerlig övervakning framåt spel konstruerad för att minska selektiv vidarebefordring attack i REF.
30,972,603
Mixed and Continuous Strategy Monitor-Forward Game Based Selective Forwarding Solution in WSN
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
442
Trådlösa sensorskådespelare nätverk (WSANs) består av en stor mängd sensornoder med låg kostnad och små skådespelare noder med bättre bearbetningskapacitet. Aktörsnoder tenderar att bli partitionerade på grund av låg aktörstäthet vid ekonomiska överväganden. Så kommunikationen mellan aktörerna kräver sensornoder för att överföra sina data till destinationsaktören som leder till flaskhalsen i kommunikationen. I detta dokument föreslås ett system med delad multi-pat (HTDM) som gör det möjligt för aktörer att samtidigt vidarebefordra data genom flera osammanhängande vägar för att uppnå hög genomströmning. HTDM routing system kan snabbt etablera flera osammanhängande routing vägar, som kan öka genomströmningen bland aktörer en hel del, och routing banan kan justeras dynamiskt beroende på energistatus för sina noder, vilket kan uppnå lastbalansering. Simuleringsresultat visar att, jämfört med relaterade routing system, HTDM routing system kan uppnå högre genomströmning prestanda och distribuera överföringsbelastningar mer jämnt till de flesta noder i nätverket.
WSAN består av en stor mängd billiga sensornoder och en liten mängd dyra kraftfulla mobila skådespelare noder (t.ex. robotar) REF.
4,129,132
Bridging the gap among actor–sensor–actor communication through load balancing multi-path routing
{'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']}
444
ABSTRACT En automatisk moduleringsklassificering har en mycket bred tillämpning inom trådlös kommunikation. På senare tid har djup inlärning använts för att lösa detta problem och uppnått överlägsna resultat. I de flesta fall är ingångsstorleken fast i konvolutionella neurala nätverk (CNN)-baserad modulering klassificering. Den faktiska radiosignalsprängningens varaktighet varierar dock. När signallängden är större än CNN-ingångslängden måste man ta hänsyn till hur man till fullo utnyttjar den fullständiga signalsprängningen för att förbättra klassificeringsnoggrannheten. I detta dokument föreslås tre fusionsmetoder för att lösa detta problem, såsom röstningsbaserad fusion, förtroendebaserad fusion och funktionsbaserad fusion. Simuleringsförsöken görs för att analysera dessa metoders prestanda. Resultaten visar att de tre fusionsmetoderna presterar bättre än den icke-fusionsmetoden. Resultaten av de två fusionsmetoderna baserade på förtroende och särdrag är mycket nära, vilket är bättre än den omröstningsbaserade fusionen.
Författarna föreslog tre fusionsmetoder för att förbättra klassificeringsnoggrannheten när signallängden är större än CNN:s ingångslängd.
174,820,216
Fusion Methods for CNN-Based Automatic Modulation Classification
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
445
Att utföra slumpmässiga promenader i nätverk är en grundläggande primitiv som har hittat tillämpningar inom många områden av datavetenskap, inklusive distribuerad dator. I den här artikeln fokuserar vi på problemet med provtagning slumpmässiga promenader effektivt i ett distribuerat nätverk och dess tillämpningar. Med tanke på bandbredd begränsningar, är målet att minimera antalet rundor som krävs för att få slumpmässiga gångprover. Alla tidigare algoritmer som beräknar ett slumpmässigt gångprov av längd som en subrutin alltid göra så naivt, det vill säga i O( ) rundor. Det viktigaste bidraget i denna artikel är en snabb distribuerad algoritm för att utföra slumpmässiga promenader. Vi presenterar en sublinjär tid distribuerad algoritm för att utföra slumpmässiga promenader vars tid komplexitet är sublinear i längden på promenaden. Vår algoritm utför en slumpmässig längdgång i Õ D-rundor (Õ döljer polylog n-faktorer där n är antalet noder i nätverket) med hög sannolikhet på ett oriktat nätverk, där D är nätverkets diameter. För grafer med liten diameter är detta en betydande förbättring jämfört med de naiva O( ) bundna. Dessutom är vår algoritm optimal inom en poly-logaritmisk faktor eftersom det finns en matchande lägre gräns [Nanongkai et al. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. Vi utökar vidare våra algoritmer för att effektivt utföra k oberoende slumpmässiga promenader i Õ K D + k rundor. Vi visar också att vår algoritm kan tillämpas för att påskynda den mer allmänna Metropolis-Hastings provtagning. Våra slumpmässiga algoritmer kan användas för att påskynda distribuerade algoritmer i applikationer som använder slumpmässiga promenader som subrutin. Vi presenterar två huvudsakliga ansökningar. För det första ger vi en snabb distribuerad algoritm för beräkning av ett slumpmässigt spanning träd (RST) i ett godtyckligt (oriktat oviktat) nätverk som körs i Õ ε mD rundor med hög sannolikhet (m är antalet kanter). Vår andra applikation är en snabb decentraliserad algoritm för att uppskatta blandningstid och relaterade parametrar för det underliggande nätverket. Vår algoritm är helt decentraliserad och kan fungera som en byggsten i designen av topologiskt-medvetna nätverk.
Algoritmen för REF utförde en slumpmässig längdgång i Õ( ε D) rundor (med hög sannolikhet) på ett oriktat nät, där D är nätets diameter.
9,794,238
Distributed Random Walks
{'venue': 'JACM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
446
I över fyrtio år har relationsdatabaser varit den ledande modellen för datalagring, hämtning och hantering. På grund av det ökande behovet av skalbarhet och prestanda har emellertid alternativa system uppstått, nämligen NoSQL-tekniken. Det ökande intresset för NoSQL-tekniken samt ökningen av antalet användningsfallsscenarier har under de senaste åren resulterat i ett ökande antal utvärderingar och jämförelser mellan konkurrerande NoSQL-teknik. Medan de flesta forskningsarbete främst fokuserar på prestandautvärdering med hjälp av standardriktmärken, är det viktigt att notera att arkitekturen i verkliga system inte bara drivs av prestandakrav, men måste omfatta många andra kvalitet attribut krav. Programvarukvalitetsattribut utgör grunden för hur programvaruingenjörer och arkitekter utvecklar programvara och fattar designbeslut. Det har dock inte funnits någon kvalitetsattributinriktad undersökning eller klassificering av NoSQL-databaser där databaser jämförs med avseende på deras lämplighet för kvalitetsattribut som är vanliga när det gäller utformningen av företagssystem. För att fylla denna lucka, och hjälp programvaruingenjörer och arkitekter, i denna artikel, undersöker och skapa en koncis och aktuell jämförelse av NoSQL motorer, identifiera deras mest fördelaktiga användning fall scenarier ur programvaruingenjör synvinkel och de kvalitet attribut som var och en av dem är mest lämpad för.
Det finns en annan undersökning som diskuterar en uppdaterad och koncis jämförelse av NoSQL-databaser på grundval av kvalitetsattribut REF.
206,988,441
Choosing the right NoSQL database for the job: a quality attribute evaluation
{'venue': 'Journal of Big Data', 'journal': 'Journal of Big Data', 'mag_field_of_study': ['Computer Science']}
447
Hittills har studieresultat om effekterna av storskalig vindkraftsintegration på liten signalstabilitet ofta varit i konflikt. Ibland är slutsatserna till och med helt motsatta, vilket gör att människor inte kan komma överens om vad som är rätt. Orsaken till detta fenomen är att de flesta av dessa studier bygger på ett visst rutnät och typiska arbetsförhållanden, så slutsatser dras genom att jämföra förändringar i svängningsläge, en efter en. Denna studiemetod saknar ett bredare perspektiv och återspeglar ofta endast en del av rutnätets förhållanden. Den lilla gränsen för signalstabilitetsregion beskriver dock det kritiska driftsområdet för kraftsystem liten signalstabilitet som helhet, vilket gör det möjligt att göra en övergripande utvärdering av systemet ur ett mer makroperspektiv. Därför är det lämpligare att analysera effekterna av storskalig vindkraftsintegration på liten signalstabilitet. Baserat på ovanstående, med hjälp av modellen för vindkraftspark integration till en maskin oändliga busskraftsystem, studerar detta papper effekterna av vindkraft integration skala och kopplingen styrka med synkron generator på liten signalstabilitet genom jämförelse av stabilitetsregioner gränser, vilket ger en ny metod och stöd för att analysera inverkan av vindkraft integration på liten signalstabilitet.
I REF studerades inverkan av storskalig vindkraftsintegration på liten signalstabilitet.
14,186,895
Impact of Large-Scale Wind Power Integration on Small Signal Stability Based on Stability Region Boundary
{'venue': None, 'journal': 'Sustainability', 'mag_field_of_study': ['Economics']}
448
Batch Normalization är ganska effektivt på att accelerera och förbättra utbildningen av djupa modeller. Effektiviteten minskar dock när träningsminibatcherna är små eller inte består av oberoende prover. Vi tror att detta beror på beroendet av modelllager indata på alla exempel i minibatch, och olika aktiveringar som produceras mellan utbildning och inferens. Vi föreslår Batch Renormalization, en enkel och effektiv förlängning för att säkerställa att utbildning och inference modeller genererar samma resultat som beror på enskilda exempel snarare än hela minibatch. Modeller tränade med Batch Renormalization presterar betydligt bättre än batchnorm vid träning med liten eller icke-i.i.d. Minibatcher. Samtidigt behåller Batch Renormalization fördelarna med batchnorm såsom okänslighet för initialisering och träning effektivitet.
Ioffe REF föreslår batch omnormalisering för att minska beroendet av mini-batcher i BatchNorm.
6,961,711
Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-Normalized Models
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
449
När det gäller hur man kan optimera och förbättra energieffektiviteten i noder, här presenterar ett kluster protokoll baserat på PSO och har en balanserad uppfattning om avstånd och energi av den dubbla kluster huvudet centraliserat nätverk. Den förbättrar främst den ursprungliga partikelsvärmens optimering genom att optimera konditionsfunktionen. Dessutom, denna algoritm Dataöverföring fas i den primära arbetsdelningen från klusterhuvuden för att förlänga klusterhuvudet omval cykel, och simuleringsresultaten visar att algoritmen i en balanserad energiförbrukning över nätverket samtidigt förlänga livscykeln för hela nätverket.
PSO-MV-protokoll REF baserat på PSO-metoden balanserar energin i noderna.
110,038,256
PSO-based Energy-balanced Double Cluster-heads Clustering Routing for wireless sensor networks
{'venue': None, 'journal': 'Procedia Engineering', 'mag_field_of_study': ['Engineering']}
450
Hälso- och sjukvårdsindustrin är i allmänhet "informationsrik", men tyvärr inte alla data bryts som krävs för att upptäcka dolda mönster och effektivt beslutsfattande. Avancerade data mining tekniker används för att upptäcka kunskap i databas och för medicinsk forskning, särskilt i Heart disease förutsägelse. Detta dokument har analyserat förutsägelsesystem för hjärtsjukdomar med hjälp av fler indataattribut. Systemet använder medicinska termer som kön, blodtryck, kolesterol som 13 attribut för att förutsäga sannolikheten för att patienten får en hjärtsjukdom. Hittills används 13 attribut för förutsägelse. I detta forskningsdokument lades ytterligare två attribut till, dvs. fetma och rökning. Data mining klassificering tekniker, nämligen Decision Trees, Naive Bayes, och Neural Networks analyseras på Heart disease databas. Prestanda av dessa tekniker jämförs, baserat på noggrannhet. Enligt våra resultat noggrannhet Neural Networks, Decision Trees, och Naive Bayes är 100%, 99,62%, och 90,74% respektive. Vår analys visar att av dessa tre klassificeringsmodeller förutsäger Neural Networks hjärtsjukdom med högsta noggrannhet.
I REF presenterades ett system för att förutsäga hjärtsjukdomar med hjälp av datautvinningsmetod med ytterligare två funktioner, dvs. fetma och rökning för att öka prognostiseringsfrekvensen.
4,996,681
Improved Study of Heart Disease Prediction System using Data Mining Classification Techniques
{'venue': 'International Journal of Computer Applications (0975 – 888) Volume 47– No.10', 'journal': None, 'mag_field_of_study': ['Computer Science']}
451
I ett simuleringsprojekt är en bra konceptuell modellrepresentation avgörande för att kommunicera konceptuella modeller mellan intressenter. En konceptuell modell beskriver problemdomänen och modellspecifikationerna. Beskrivningen av problemområdet omfattar målen, inputs, outputs, innehåll, antaganden och förenklingar som görs i modellen. Modellspecifikationerna används för att ange modellens beteende. Denna artikel fokuserar på representationen av modellens innehåll (struktur, gräns och detaljnivå) i en agentbaserad simuleringsmodell (ABS). För detta föreslår vi användning av Business Process Model and Notation (BPMN) från Objekthanteringsgruppen. Ett webbaserat visuellt modelleringsverktyg har utvecklats med JavaScript för att visa hur BPMN kan användas för att representera en ABS konceptuell modell och hur verktyget översätter den konceptuella modellen till kod klar för utförande med Repast HPC.
Onggo m.fl. I REF föreslås att BPMN används för att representera en konceptuell modell för agentbaserad simulering.
6,158,507
Agent-based conceptual model representation using BPMN
{'venue': 'Proceedings of the 2011 Winter Simulation Conference (WSC)', 'journal': 'Proceedings of the 2011 Winter Simulation Conference (WSC)', 'mag_field_of_study': ['Computer Science']}
452
Abstract-I detta dokument anser vi en nyligen föreslagen övervakad inlärning problem, kallas online multiclass förutsägelse med bandit inställning modell. Syftet är att lära sig av partiell återkoppling av klassificeringsresultat online, dvs. "true" när den predikterande etiketten är rätt eller "falska" när den predikterande etiketten är fel, väcker denna nya typ av problem mycket av forskarnas intresse på grund av dess nära relationer till verkliga världen internetapplikationer och mänskliga kognitiva förfarande. Medan vissa algoritmer har lagts fram föreslår vi en ny algoritm för att hantera sådana problem. Först, vi minskar multiclass förutsägelse problem till binära baserat på konservativa one-versusall others Reduction system; Då Online Passiv-aggressiv algoritm är inbäddad som binär inlärning algoritm för att lösa det reducerade problemet. Dessutom härleder vi ett glädjande kumulativt misstag bundet till vår algoritm och en tids komplexitet bundet linjär till provstorleken. Ytterligare experimentell utvärdering av flera realtidsdataset, inklusive RCV1, MNIST, 20 nyhetsgrupper och USPS, visar att vår metod överträffar de befintliga algoritmerna med en stor förbättring.
I detta sammanhang föreslogs ett förbättrat Banditron-referensdokument där flerklassens prognosproblem reduceras till ett binärt problem, baserat på ett konservativt en-mot-alla minskningssystem.
5,928,745
Beyond Banditron: A Conservative and Efficient Reduction for Online Multiclass Prediction with Bandit Setting Model
{'venue': '2009 Ninth IEEE International Conference on Data Mining', 'journal': '2009 Ninth IEEE International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']}
453
Sammanfattning av denna webbsida: Mikrofasormätningsenheten (μPMU) utvecklas snabbt och blir allt viktigare för tillämpning i framtida distributionsnät. Det är orealistiskt och oöverkomligt att placera alla bussar med μPMUs på grund av de höga kostnaderna, vilket leder till behovet av att bestämma optimal placering med minimalt antal μPMUs i distributionssystemet. En optimal μPMU placering (OPP) baserad på information entropi utvärdering och nod urvalsstrategi (IENS) med hjälp av girig algoritm presenteras i detta dokument. Osäkerheten hos distribuerade generationer (GD) och pseudomätningar beaktas, och tvåpunktsuppskattningsmetoden (2PEM) används för att lösa problem med stokastisk statsuppskattning. Den uppsättning bussar som väljs ut genom förbättrade IENS, som kan minimera osäkerheterna i nätet och få systemobserverbarhet anses vara den optimala installationen av μPMUs. Den föreslagna metoden använder mätningar av smarta mätare och pseudomätningar av belastningskrafter i distributionssystemen för att minska antalet μPMU och förbättra nätverkets observerbarhet. Resultaten av simuleringarna visar den föreslagna algoritmens effektivitet med en jämförelse av traditionella topologiska metoder för OPP-problemet. Den förbättrade IENS-metoden kan få den optimala kompletta och ofullständiga μPMU-placeringen i distributionssystemen.
I REF användes informationsteorin för att formulera PMU-placeringen i form av ömsesidig information, som sedan optimerades med hjälp av en girig algoritm för att minska antalet PMU-enheter samtidigt som fullständig systemobserverbarhet garanteras.
115,134,001
Optimal Micro-PMU Placement Using Mutual Information Theory in Distribution Networks
{'venue': None, 'journal': 'Energies', 'mag_field_of_study': ['Engineering']}
454
I detta dokument beskrivs ett nytt tillvägagångssätt för det semantiska detekteringsproblemet. Istället för att förlita oss enbart på utbildningsinstanserna för en ny relation utnyttjar vi den kunskap som vi har lärt oss från tidigare utbildade relationsdetektorer. Speciellt upptäcker vi en ny semantisk relation genom att projicera den nya relationens utbildningsinstanser på ett ämnesutrymme med lägre dimension konstruerat från befintliga relationsdetektorer genom en trestegsprocess. För det första bygger vi ett stort relationsförråd med mer än 7.000 relationer från Wikipedia. För det andra konstruerar vi en uppsättning icke-redundanta relationsämnen som definieras på flera skalor från relationsarkivet för att karakterisera de befintliga relationerna. Likt de ämnen som definieras över ord, varje relation ämne är en tolkningsbar multinomial fördelning över de befintliga relationerna. För det tredje integrerar vi relationsämnena i en kärnfunktion och använder den tillsammans med SVM för att konstruera detektorer för nya relationer. De experimentella resultaten på Wikipedia- och ACE-data har bekräftat att bakgrundskunskapsbaserade ämnen som genereras från Wikipedias relationsarkiv avsevärt kan förbättra prestandan i förhållande till detektionsmetoderna.
REF konstruerar en uppsättning relationsämnen och integrerar dem i en relationsdetektor för bättre relationsprognoser.
2,335,236
Relation Extraction with Relation Topics
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
455
Abstract-existing metoder för P2P streaming kan delas in i två allmänna klasser: (i) trädbaserade metoder använder pushbaserad innehåll leverans över flera träd-formade överlägg, och (ii) mesh-baserade metoder använder svärmning innehåll leverans över en slumpmässigt ansluten mesh. Tidigare studier har ofta fokuserat på en särskild P2P streaming mekanism och ingen jämförelse mellan dessa två klasser har utförts. I detta dokument jämför och kontrasterar vi prestandan hos representativa protokoll från varje klass med hjälp av simuleringar. Vi identifierar likheterna och skillnaderna mellan dessa två tillvägagångssätt. Dessutom undersöker vi separat beteendet hos innehållsleverans och overlay konstruktionsmekanismer för både tillvägagångssätt i statiska och dynamiska scenarier. Våra resultat indikerar att det meshbaserade tillvägagångssättet genomgående uppvisar en överlägsen prestanda jämfört med det trädbaserade tillvägagångssättet. Vi visar också att de viktigaste faktorerna som hänför sig till den lägre prestandan hos det trädbaserade tillvägagångssättet är (i) den statiska kartläggningen av innehållet till ett visst träd, och (ii) placeringen av varje kamrat som en intern nod i ett träd och som ett blad i alla andra träd. Med hjälp av Peer-to-Peer overlay har blivit en allt mer populär strategi för streaming live-media över Internet på grund av dess potentiella skalbarhet och enkel distribution. Detta tillvägagångssätt brukar kallas P2P streaming. I P2P-streaming bidrar deltagande slutsystem (eller kamrater) aktivt med sina resurser (huvudsakligen utgående bandbredd) genom att vidarebefordra sitt tillgängliga innehåll till sina uppkopplade deltagare. Eftersom de samlade tillgängliga resurserna i detta tillvägagångssätt växer organiskt med användarpopulationen, kan detta tillvägagångssätt potentiellt skalas med antalet deltagare i en session. Befintliga metoder för live P2P-streaming kan i allmänhet delas in i två klasser: trädbaserade metoder och meshbaserade metoder. Den trädbaserade P2P streaming metoden expanderar idén om end-system multicast [1] genom att organisera deltagande kamrater i flera olika träd. Därefter, varje beskrivning av en Flera Beskrivning Kodat (MDC) innehåll trycks genom ett separat träd [2], [3]. Den mesh-baserade P2P streaming metoden är inspirerad av fil svärmning mekanismer (såsom BitTorrent) där deltagande kamrater bildar en slumpmässigt ansluten mesh och använder en svärmande innehåll leverans mekanism över en nyligen fönster av innehåll [4]. Den begränsade tillgången till nytt innehåll i livestreaming tillsammans med begreppet "kvalitet" för den levererade strömmen (dvs. antal beskrivningar) introducerar dock nya dimensioner i utformningen och utvärderingen av mesh-baserad P2P-streaming. De flesta av de tidigare studierna av P2P streaming har fokuserat på en särskild mekanism och utvärderat vissa aspekter av dess
En jämförande studie av träd- och mesh-baserade metoder för medieströmning presenteras i REF.
5,787,413
Mesh or Multiple-Tree: A Comparative Study of Live P2P Streaming Approaches
{'venue': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
456
Abstract-Mobile robotar används i allt större utsträckning i riskfyllda tuffa terrängsituationer, såsom planet prospektering och militära tillämpningar. Nuvarande kontroll- och lokaliseringsalgoritmer är inte väl lämpade för grov terräng, eftersom de i allmänhet inte beaktar de fysiska egenskaperna hos fordonet och dess miljö. Lite uppmärksamhet har ägnats åt studien av de dynamiska effekter som uppstår vid hjul-terränggränssnittet, såsom halk och sänkor. Dessa effekter äventyrar odometri noggrannhet, traktion prestanda, och kan även resultera i snärjning och därav följande uppdrag misslyckande. Detta papper beskriver metoder för hjulglidning och detektering av sänkor som syftar till att förbättra fordonens rörlighet på mjuk sandig terräng. Nya åtgärder för detektering av hjulsläp presenteras baserat på observation av olika metoder för fordonssensorer och definition av deterministiska förhållanden som indikerar fordonssläp. En innovativ visionsbaserad algoritm för skattning av hjulsänka diskuteras baserat på strategi för kantdetektering. Experimentella resultat, erhållna med en Mars rover-typ robot som arbetar i högglidande sandiga miljöer och med en hjulsänka testbädd, presenteras för att validera vår strategi. Det visas att dessa tekniker är effektiva för att upptäcka hjulglidning och sänkning. Index Terms-Rough-terräng mobil robotik, glid-och sänkdetektering.
En av de vanligaste av dessa effekter är hjulsänkning REF.
3,030,066
Wheel slippage and sinkage detection for planetary rovers
{'venue': 'IEEE/ASME Transactions on Mechatronics', 'journal': 'IEEE/ASME Transactions on Mechatronics', 'mag_field_of_study': ['Engineering']}
457
I detta dokument föreslås en tvåstegsalgoritm för att samtidigt uppskatta ursprung-destination (OD) matris, länk val proportion, och spridning parameter med hjälp av partiell trafik räknas i ett överbelastat nätverk. En icke-linjär optimeringsmodell utvecklas som innehåller en dynamisk spridningsparameter, följt av en tvåstegsalgoritm där Generalized Least Squares (GLS) uppskattning och en Stochastic User Equilibrium (SUE) tilldelningsmodell tillämpas iterativt tills konvergens uppnås. För att utvärdera algoritmens prestanda genomförs den föreslagna metoden i ett hypotetiskt nätverk med hjälp av inmatningsdata med stort fel, och testas under en rad variationskoefficienter. Det rotade genomsnittliga kvadratfelet (RMSE) för den uppskattade OD-efterfrågan och länkflöden används för att utvärdera modellens skattningsresultat. Resultaten visar att den uppskattade spridningsparametern theta är okänslig för valet av variationskoefficienter. Det föreslagna tillvägagångssättet visar sig överträffa två etablerade OD-uppskattningsmetoder och producera parameteruppskattningar som ligger nära sanningen. Dessutom tillämpas det föreslagna tillvägagångssättet på ett empiriskt nätverk i Seattle, WA för att bekräfta att denna metod är robust och praktisk. Sammanfattningsvis föreslår och utvärderar denna studie en innovativ beräkningsmetod för att korrekt uppskatta OD-matriser med hjälp av trafikflödesdata på länknivå, och ger användbar insikt för optimalt parameterval i modellering av resenärers vägval.
Enligt Wang et al. REF, en tvåstegsalgoritm föreslås att samtidigt uppskatta O-D-matrisen och länkvalsandelen i ett överbelastat nätverk med hjälp av en spridningsparameter för partiella trafikräkningar.
12,450,853
A Two-Stage Algorithm for Origin-Destination Matrices Estimation Considering Dynamic Dispersion Parameter for Route Choice
{'venue': 'PLOS ONE', 'journal': 'PLOS ONE', 'mag_field_of_study': ['Medicine']}
458
I detta kapitel diskuteras möjligheten att ingjuta en virtuell värld med mekanismer för evolution och naturligt urval för att skapa rika ekosystem av komplexa organismer i en process som liknar biologisk evolution. Några tidigare arbeten inom området beskrivs, och framgångar och misslyckanden diskuteras. Komponenterna i en mer omfattande ram för att utforma sådana världar är kartlagda, inklusive utformningen av de enskilda organismerna, egenskaperna och dynamiken hos det miljömedium i vilket de utvecklas, och representationsförhållandet mellan organism och miljö. Några av de viktigaste frågor som diskuterats är hur organismer kan utveckla nya strukturer och funktioner med få begränsningar, och hur man skapar ett samband mellan organismer för att generera drivkrafter för fortsatt evolutionär aktivitet.
För att göra den virtuella världen intelligent, Taylor et al. Ref diskuterade möjligheten att få en virtuell värld att utvecklas av sig själv.
7,051,457
Evolution in Virtual Worlds
{'venue': 'Chapter 32 of"The Oxford Handbook of Virtuality", Mark Grimshaw (ed.), Oxford University Press, 2014. (ISBN 9780199826162)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
459
Visuell kryptografi gör det möjligt att koda en hemlig bild, bestående av svarta eller vita bildpunkter, i n-aktier som delas ut till deltagarna. Aktierna är sådana att endast kvalificerade undergrupper av deltagare kan "visuellt" återfå den hemliga bilden. De hemliga pixlarna delas med tekniker som delar varje hemlig pixel i ett visst antal m, m ≥ 2 subpixlar. En sådan parameter m kallas pixelexpansion. Nyligen introducerade Yang en probabilistisk modell. I en sådan modell är pixelexpansion m 1, det vill säga, det finns ingen pixelexpansion. Återuppbyggnaden av bilden är dock probabilistisk, vilket innebär att en hemlig pixel kommer att korrekt rekonstrueras endast med en viss sannolikhet. I detta dokument föreslår vi en generalisering av den modell som Yang föreslagit. I vår modell fixerar vi pixelexpansion m ≥ 1 som kan tolereras och vi anser att probabilistiska system uppnår en sådan pixelexpansion. För m = 1 minskar vår modell till Yang. För tillräckligt stora värden på m, för vilka det finns ett deterministiskt system, minskar vår modell till den klassiska deterministiska modellen. Vi visar att mellan dessa två ytterligheter kan man handla med systemets sannolikhetsfaktor med pixelexpansion. Dessutom bevisar vi att det finns en en-till-en-kartläggning mellan deterministiska system och probabilistiska system utan pixelexpansion, där kontrasten handlas för sannolikhetsfaktorn.
Cimato m.fl. REF generaliserade Yangs [14] modell och visade att det är möjligt att handla pixelexpansion för sannolikheten för en god återuppbyggnad.
13,892,152
Probabilistic visual cryptography schemes
{'venue': 'The Computer Journal', 'journal': None, 'mag_field_of_study': ['Computer Science']}
460
Storskaliga kommenterade corpora är en förutsättning för att utveckla högpresterande NLP-system. Sådan korpora är dyr att producera, begränsad i storlek, ofta krävande språklig expertis. I det här dokumentet använder vi textomskrivning som ett sätt att öka mängden märkta data som finns tillgängliga för modellutbildning. Vår metod använder automatiskt extraherade rewrite regler från jämförbara korpora och bitexts för att generera flera versioner av meningar kommenterade med guld standard etiketter. Vi tillämpar denna idé för semantisk rollmärkning och visar att en modell som är utbildad på omskrivna data överträffar toppmodernheten på CONLL-2009-riktmärkets datauppsättning.
I REF presenterar författarna en textskrivningsmetod för att öka mängden märkta data som finns tillgängliga för modellutbildning.
11,504,485
Text rewriting improves semantic role labeling
{'venue': 'J. Artif. Intell. Res.', 'journal': 'J. Artif. Intell. Res.', 'mag_field_of_study': ['Computer Science']}
461
Under de senaste åren har det varit många framgångar att använda djupa representationer för att förstärka lärandet. Ändå, många av dessa program använder konventionella arkitekturer, såsom konvolutionella nätverk, LSTMs, eller auto-kodare. I detta dokument presenterar vi en ny neural nätverk arkitektur för modellfri förstärkning lärande. Vårt duellnätverk representerar två separata estimatorer: en för funktionen statsvärde och en för den statligt beroende actionfördelsfunktionen. Den främsta fördelen med denna faktorisering är att generalisera lärandet över åtgärder utan att införa någon förändring av den underliggande förstärkande inlärningsalgoritmen. Våra resultat visar att denna arkitektur leder till bättre politisk utvärdering i närvaro av många liknande värdefulla åtgärder. Dessutom gör duellarkitekturen det möjligt för vår RL-agent att överträffa toppmodernheten på Atari 2600-domänen.
Dueling-nätverket av REF delar upp Q-nätverket i två separata skattningar: den ena för funktionen statsvärde och den andra för funktionen för statligt beroende åtgärdsfördel.
5,389,801
Dueling Network Architectures for Deep Reinforcement Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
462
Abstract-Vi presenterar ordinala åtgärder association för bildkorrespondens i samband med stereo. Linjära korrespondensmått som korrelation och summan av kvadratskillnaden mellan intensitetsfördelningarna är kända för att vara sköra. Ordinära mått som baseras på relativ ordning av intensitetsvärden i fönster-rank permutationer-har påvisbara robusthet. Genom att använda avståndsmått mellan två rang permutationer definieras ordinala mått. Dessa mått är oberoende av absolut intensitetsskala och invarianta till monotona omvandlingar av intensitetsvärden som gammavariation mellan bilder. Vi har utvecklat enkla algoritmer för ett effektivt genomförande. Experiment tyder på att ordinala åtgärder är överlägsna befintliga tekniker under icke-ideala förhållanden. Dessa åtgärder fungerar som ett allmänt verktyg för bildmatchning som är tillämpliga på andra synproblem såsom rörelseuppskattning och texturbaserad bildsökning.
Image Deduplication och Clustering Arbete på ordinala åtgärder som fungerar som ett allmänt verktyg för bildmatchning utfördes av Bhat et al. i REF................................................................................................
1,930,147
Ordinal Measures for Image Correspondence
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
463
Abstract-kapaciteten för trådlösa nätverk är i grunden begränsad av störningar. Men lite forskning har fokuserat på interferens korrelation, vilket i hög grad kan öka den lokala fördröjningen (nämligen det antal tider som krävs för en nod för att framgångsrikt överföra ett paket). Detta dokument fokuserar på frågan om ökad slumpmässighet i MAC, särskilt frekvenshoppning multipel access (FHMA) och ALOHA, bidrar till att minska effekten av interferens korrelation. Vi härleder slutna formresultat för medelvärdet och variansen av den lokala fördröjningen för de två MAC-protokollen och utvärderar de optimala parametrarna som minimerar den genomsnittliga lokala fördröjningen. Baserat på de optimala parametrarna identifierar vi två operativa system, det korrelationsbegränsade systemet och det bandbreddsbegränsade systemet. Våra resultat visar att medan medel lokala förseningar för FHMA med N-delband och för ALOHA med överföringsannolikhet p i huvudsak sammanfaller när p = 1 N, finns en grundläggande diskrepans mellan deras varianser. Vi diskuterar också implikationer från analysen, inklusive en intressant genomsnittlig delay-jitter kompromiss, och bekväma gränser på svansen sannolikheten för den lokala fördröjningen, som ger användbara insikter i systemdesign.
I REF, Zhong et al. studerade effekten av tidsinterferens korrelation på frekvenshoppning av flera åtkomster (FHMA) och Aloha MAC-protokoll.
8,179,708
Managing Interference Correlation Through Random Medium Access
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
464
Agentbaserade modeller tenderar att vara mer och mer komplexa. För att klara av denna ökning av komplexiteten krävs kraftfulla modeller och simuleringsverktyg. Under de senaste åren har flera plattformar utvecklats för att utveckla agentbaserade modeller. Medan vissa av dem fortfarande är begränsade till utvecklingen av enkla modeller, andra gör det möjligt att utveckla rika och komplexa modeller. Bland dem, GAMA modellering och simuleringsplattform syftar till att stödja utformningen av rumsliga, flera paradigmer och flera skalor modeller. Flera dokument har redan infört GAMA, särskilt vid tidigare Prima-konferenser, och vi vill i detta dokument införa de nya inslagen i GAMA 1.6, den senaste översynen hittills av plattformen. I synnerhet presenterar vi dess kapacitet när det gäller den snäva kombinationen av 3D-visualisering, GIS-datahantering och flernivåmodellering. Dessutom presenterar vi några exempel på verkliga projekt som förlitar sig på GAMA för att utveckla komplexa modeller.
Ramprogrammet GAMA syftar till att stödja skapandet av rumsliga, flerskaliga agentbaserade modeller.
1,999,462
GAMA 1.6: Advancing the Art of Complex Agent-Based Modeling and Simulation
{'venue': 'PRIMA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
465
ABSTRACT Ett fordonsbaserat ad hoc-nät (VANET) fungerar som en tillämpning av det intelligenta transportsystemet som förbättrar trafiksäkerheten och effektiviteten. Fordon i en VANET-sändning av trafik- och säkerhetsrelaterad information som används i trafiksäkerhetstillämpningar, t.ex. ett elektroniskt nödbromsljus. Sändningen av dessa meddelanden i en öppen miljö gör säkerhet och integritet kritiska och utmanande problem i VANET. Ett missbruk av denna information kan leda till en trafikolycka och till att människoliv går förlorade på ett sämre sätt, och därför är fordonsautentisering ett nödvändigt krav. Under autentiseringen måste ett fordons integritetsrelaterade data, såsom identitets- och platsinformation, hållas privata. I detta dokument presenteras en strategi för integritetsbevarande autentisering i ett VANET. Vårt hybrida tillvägagångssätt kombinerar de användbara egenskaperna hos både pseudonymbaserade metoder och gruppsignaturer-baserade metoder för att utesluta deras respektive nackdelar. Det föreslagna tillvägagångssättet kräver varken att ett fordon ska hantera en förteckning över återkallanden av certifikat eller att fordon ska ingå i någon koncernledning. Den föreslagna metoden använder effektiva och lätta pseudonymer som inte bara används för meddelandeautentisering, utan också fungerar som en lucka för att ge villkorlig anonymitet. Vi presenterar olika attackscenarier som visar motståndskraften i den föreslagna strategin mot olika säkerhets- och integritetshot. Vi tillhandahåller också analys av beräkning och kommunikation overhead för att visa effektiviteten i den föreslagna tekniken. Dessutom genomför vi omfattande simuleringar för att presentera en detaljerad nätverksprestandaanalys. Resultaten visar att vårt föreslagna tillvägagångssätt är genomförbart när det gäller end-to-end-försening och paketleveransförhållande. INDEX TERMS Vehicular ad hoc nätverk, säkerhet, integritet, autentisering, pseudonym, villkorlig anonymitet.
I REF kombinerar författarna pseudonymerna med gruppsignaturer och föreslår ett effektivt system för integritetsbevarande autentisering för sakernas Internet.
13,491,768
A Hybrid Approach for Efficient Privacy-Preserving Authentication in VANET
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
466
Diametern och radien på en graf är grundläggande topologiska parametrar som har många viktiga praktiska tillämpningar i verkliga nätverk. Den snabbaste kombinatoriska algoritmen för båda parametrarna fungerar genom att lösa alla-par kortaste banor problem (APSP) och har en körtid av O (mn) i m-kant, n-node grafer. I en seminal papper, Aingworth, Chekuri, Indyk och Motwani [SODA'96 och SICOMP'99] presenterade en algoritm som beräknar i O (m ε n + n 2 ) tid en uppskattningD för diametern D, sådan att 2/3D ≤ D ≤ D. Deras papper lekte en lång rad forskning på ungefärlig APSP. När det gäller det särskilda problemet med tillnärmning av diametern har dock ingen förbättring uppnåtts på över 15 år. Vår uppsats presenterar den första förbättringen jämfört med diameter approximation algoritm av Aingworth et al. , producerar en algoritm med samma uppskattning men med en förväntad drifttid av O (m ε n). Vi visar alltså att för alla glesa nog grafer, diametern kan vara 3/2-ungefärlig i o(n 2 ) tid. Vår algoritm erhålls med en förvånansvärt enkel metod för område djup uppskattning som är tillräckligt stark för att också ungefärlig, i samma körtid, radien och mer allmänt, alla excentricities, dvs... för varje nod avståndet till dess yttersta nod. Vi ger också starka bevis för att vår diameter approximation resultat kan vara svårt att förbättra. Vi visar att om det för vissa konstanta ε > 0 finns en O(m 2−ε ) tid (3/2 − ε) - approximation algoritm för diametern på oriktade oviktade grafer, då finns det en O * ((2 − ε) n ) tid algoritm för CNF-SAT på n variabler för konstant δ > 0, och den starka exponentiella tidshypotesen för [Impagliazzo, Paturi, Zane JCSS'01] är falsk. * Arbete som stöds av Israel Science Foundation (bidrag nr. Detta beslut träder i kraft den tjugonde dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. † Delvis stöd från NSF Grants CCF-0830797 och CCF-1118083 vid UC Berkeley, samt från NSF Grants IIS-0963478 och IIS-0904325, samt ett AFOSR MURI Grant vid Stanford University. Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Motiverade av detta negativa resultat ger vi flera förbättrade diameter approximationsalgoritmer för specialfall. Vi visar till exempel att för oviktade grafer med konstant diameter D inte delbart med 3, finns det en tidsalgoritm O(m 2−ε ) som ger en (3/2 − ε) approximation för konstant ε > 0. Detta är intressant eftersom diameter approximation problemet är svårast att lösa för små D.
Till exempel, särskilja om diametern på en graf på O(n) kanter är 2 eller minst 3 i verkligt subkvadratisk tid motbevisar SETH REF, vilket innebär hårdhet för (3/2 − ε) approximationer.
1,621,075
Fast approximation algorithms for the diameter and radius of sparse graphs
{'venue': "STOC '13", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
467
Abstract-This paper presenterar en approximerad Robust Principal Component Analysis (ARPCA) ram för återställning av en uppsättning linjärt korrelerade bilder. Vår algoritm söker en optimal lösning för att sönderdela en sats av realistiska ojusterade och skadade bilder som summan av en låg-rank och en gles korruptionsmatris, samtidigt som man anpassar bilderna efter de optimala bildomvandlingarna. Detta extremt utmanande optimeringsproblem har reducerats till att lösa ett antal konvexa program, som minimerar summan av Frobenius norm och 1-normen av de nämnda matriserna, med garanterad snabbare konvergens än toppmoderna algoritmer. Effekten av den föreslagna metoden verifieras med omfattande experiment med verkliga och syntetiska data.
Ebadi REF presenterade ett approximativt RPCA-ramverk för återställning av en uppsättning linjärt korrelerade bilder som söker en optimal lösning för sönderdelning av ett parti realistiska ojusterade och korrumperade bilder som summan av en lågvärdig och en gles korruptionsmatris, samtidigt som bilderna anpassas till de optimala bildomvandlingarna.
15,007,858
Approximated RPCA for fast and efficient recovery of corrupted and linearly correlated images and video frames
{'venue': '2015 International Conference on Systems, Signals and Image Processing (IWSSIP)', 'journal': '2015 International Conference on Systems, Signals and Image Processing (IWSSIP)', 'mag_field_of_study': ['Computer Science']}
468
Uppskattning av dopplerskalan är ett viktigt steg som krävs vid omsampling i akustiska kommunikationsmottagare. I detta dokument jämför vi olika skattningsmetoder för Dopplerskalan med antingen cyklisk prefix (CP) eller noll-vadderad (ZP) ortogonal-frekvensdelning-multiplexing (OFDM) waveforms. För en CP-OFDM ingress, en självkorreleringsmetod möjliggör blind Doppler skala uppskattning baserad på en inbäddad repetition struktur medan en korskorreleringsmetod är tillgänglig med kunskap om vågformen. För varje mottagen ZP-OFDM block, förekomsten av null subcarriers möjliggör blind Doppler skala uppskattning. Dessutom tillämpas en pilotstödd metod och en beslutsvägd metod baserad på korskorrelation med mallar som konstruerats från symboler endast på pilotunderredare och från symboler på alla undertransportörer efter dataavkodning. Detta dokument gör omfattande jämförelser mellan dessa metoder med hjälp av både simulerade och verkliga experimentella data. Dessutom undersöks hur dessa metoder kan tillämpas på distribuerade fleranvändarsystem.
Doppler skala uppskattning är typiskt en avgörande forskningsämne för undervattens akustisk kommunikation, och det finns två gemensamma sätt för Doppler skala uppskattning REF.
18,042,398
Performance Comparison of Doppler Scale Estimation Methods for Underwater Acoustic OFDM
{'venue': 'J. Electrical and Computer Engineering', 'journal': 'J. Electrical and Computer Engineering', 'mag_field_of_study': ['Computer Science']}
469
Abstract-Vårt mål är att förstå utvecklingen av det autonoma systemet (AS) ekosystem under de senaste 12 åren. Istället för att fokusera på abstrakta topologiska egenskaper klassificerar vi AS i ett antal typer beroende på funktion och typ av verksamhet. Dessutom anser vi semantik av inter-AS länkar: kund-leverantör kontra peering relationer. Vi finner att tillgängliga historiska dataset från RouteViews och RIPE inte är tillräckliga för att dra slutsatsen utvecklingen av peering länkar, och därför begränsar vi vårt fokus till kund-leverantörer länkar. Våra upptäckter belyser några viktiga trender i utvecklingen av Internet under de senaste 12 åren och antyder vad Internet är på väg mot. Efter en exponentiell ökningsfas fram till 2001 har Internet hamnat i en långsammare exponentiell tillväxt både när det gäller anslutna system och inter-AS-länkar. Tillväxten beror främst på företagsnätverk och leverantörer av innehåll/access i Internets periferi. Den genomsnittliga väglängden förblir nästan konstant, främst på grund av den ökande multihoming graden av transitering och innehåll / åtkomstleverantörer. Typerna av larmsystem skiljer sig avsevärt från varandra när det gäller deras rewiring-aktivitet; innehålls-/accessleverantörer är de mest aktiva. Några få stora transitleverantörer fungerar som "attractors" eller "repellers" av kunder. För många leverantörer, stark attraktivitet föregår stark motvilja med 3-9 månader. Slutligen, när det gäller regional tillväxt, anser vi att AS-ekosystemet nu är större och mer dynamiskt i Europa än i Nordamerika.
Huvudfokus i dokumentet genom Ref var att analysera utvecklingen av AS-ekosystemet under de senaste tolv åren.
14,921,805
Twelve Years in the Evolution of the Internet Ecosystem
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': 'IEEE/ACM Transactions on Networking', 'mag_field_of_study': ['Computer Science']}
470
Djupt lärande har blivit det senaste verktyget i många tillämpningar, men utvärdering och utbildning av djupa modeller kan vara tidskrävande och beräknings dyrt. Den villkorliga beräkningsmetoden har föreslagits för att ta itu med detta problem (Bengio et al., 2013; Davis & Arel, 2013). Det verkar genom att selektivt aktivera endast delar av nätet åt gången. I detta dokument använder vi förstärkningslärande som ett verktyg för att optimera villkorlig beräkningspolicy. Mer specifikt kastar vi problemet med att lära sig aktiveringsberoende politik för att släppa ut block av enheter som ett förstärkande inlärningsproblem. Vi föreslår ett inlärningssystem som motiveras av beräkningshastighet, fånga idén om att vilja ha parsimoniska aktiveringar samtidigt som förutsägelse noggrannhet. Vi tillämpar en policygradientalgoritm för lärandestrategier som optimerar denna förlustfunktion och föreslår en legaliseringsmekanism som uppmuntrar diversifiering av avhoppspolitiken. Vi presenterar uppmuntrande empiriska resultat som visar att detta tillvägagångssätt förbättrar beräkningshastigheten utan att påverka kvaliteten på approximationen.
Senare, Bengio et al. REF använde förstärkningsutbildning för att optimera den villkorliga beräkningspolicyn.
16,049,527
Conditional Computation in Neural Networks for faster models
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
471
Abstrakt. Replicerade tjänster som gör det möjligt att skala dynamiskt kan anpassa sig till förfrågningar belastning. Att välja rätt antal repliker är grundläggande för att undvika att prestanda försämras när inmatningstoppar uppstår och för att spara resurser när belastningen är låg. Nuvarande mekanismer för automatisk skalning är främst baserade på fasta trösklar på CPU och minnesanvändning, som inte är tillräckligt exakta och ofta medför sena motåtgärder. Vi föreslår Make Your Service Elastic (MYSE), en arkitektur för automatisk skalning av generiska replikerade tjänster baserat på kömodeller för exakt tidsuppskattning av svarstid. Begäran och servicetider mönster analyseras för att lära sig och förutsäga över tid deras distribution så att möjliggöra tidig skalning. En ny heurist föreslås för att undvika flipping fenomenet. Vi utförde simuleringar som visar lovande resultat för vad som gäller effektiviteten i vår strategi.
Aniello m.fl. REF utvecklade en arkitektur för automatiskt skalning av replikerade tjänster.
13,827,502
An Architecture for Automatic Scaling of Replicated Services
{'venue': 'NETYS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
472
Abstrakt. De många fördelar som mobiltelefoner ger överskuggas ibland av de problem de skapar, till exempel när en persons mobiltelefon stör en gruppaktivitet, till exempel en klass, ett möte eller en film. Avbrott i mobiltelefonen framhävs bara av det ständigt ökande antalet mobila enheter som vi bär på. Många verktyg och tekniker har föreslagits för att minimera avbrott som orsakas av mobila enheter. I den aktuella studien använder vi kalenderinformation för att dra slutsatser om användarnas aktivitet och för att automatiskt konfigurera mobiltelefoner i enlighet med detta. Vårt in-situ experiment använder PDAs som kör en mobiltelefon simulator för att undersöka genomförbarheten och designfaktorerna för en sådan lösning. Våra resultat visar att både strukturerade aktiviteter och lämplig mobiltelefonkonfiguration kan förutses med hög noggrannhet med hjälp av kalenderinformationen. Resultaten visar också en konsekvent kartläggning av aktiviteter till konfiguration för varje individ. Det fanns dock en dålig konsekvens i kartläggningen av aktiviteter för att konfigurera mellan olika deltagare. Vi diskuterar resultaten i relation till inkorrekthet, spontana aktiviteter och användarreaktioner.
Khalil m.fl. REF använder kalenderinformation för att dra slutsatser om användarens aktivitet och för att automatiskt konfigurera mobiltelefoner för att hantera avbrott.
5,140,697
Improving Cell Phone Awareness by Using Calendar Information
{'venue': 'INTERACT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
473
Tillkomsten av prisvärda, shared-inget computing systems introducerar en ny klass av parallella databashanteringssystem (DBMS) för on-line transaktionsbehandling (OLTP) applikationer som skala utan att offra ACID garantier [7, 9]. Resultaten av dessa DBMS bygger på att det finns en optimal databasdesign som är skräddarsydd för de unika egenskaperna hos OLTP arbetsbelastningar [43]. Att härleda sådana konstruktioner för moderna DBMS är svårt, särskilt för företagsklass OLTP-system, eftersom de medför extra utmaningar: användning av lagrade förfaranden, behovet av lastbalansering i närvaro av tidsvarierande skev, komplexa scheman och distributioner med större antal partitioner. För detta ändamål presenterar vi ett nytt tillvägagångssätt för att automatiskt dela upp databaser för företagsklass OLTP-system som avsevärt utökar den senaste tekniken genom att: (1) minimera antalet distribuerade transaktioner, samtidigt minska effekterna av temporal skev i både datadistribution och åtkomster, (2) utvidga designutrymmet till att omfatta replikerade sekundära index, (4) organiskt hantera lagrade förfaranden routing, och (3) skala av schema komplexitet, datastorlek, och antal partitioner. Detta arbete bygger på två viktiga tekniska bidrag: en analytisk kostnadsmodell som kan användas för att snabbt uppskatta den relativa samordningskostnaden och skevhet för en given arbetsbelastning och en kandidat databasdesign, och en informerad undersökning av den enorma lösning utrymme baserat på stora grannskap sökning. För att utvärdera våra metoder integrerade vi vårt databasdesignverktyg med en högpresterande parallell, huvudminne DBMS och jämförde våra metoder mot både populär heuristik och en toppmodern forskningsprototyp [17]. Med hjälp av en mängd olika riktmärken, visar vi att vår strategi förbättrar genomströmningen av upp till en faktor på 16× över dessa andra metoder.
Pavlo m.fl. REF föreslog en automatisk databas partitionering algoritm baserad på en anpassning av grannskapet sökteknik, och en kostnadsmodell som uppskattar samordningskostnader och lastfördelning för en prov arbetsbelastning.
13,504,572
Skew-aware automatic database partitioning in shared-nothing, parallel OLTP systems
{'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
474
Vi anser att ett optiskt nätverk med våglängder fungerar som en ljusstigsbaserad virtuell topologi. Vi presenterar en exakt linjär programmeringsformulering för den kompletta virtuella topologidesignen, inklusive val av ingående ljusvägar, vägar för dessa ljusvägar, och intensiteten av paket ows genom dessa ljusvägar. Genom att göra en övergång i den objektiva funktionen till minimalt humleavstånd och genom att lätta på våglängds-kontinuitetsbegränsningarna (dvs. att anta våglängdsomvandlare vid alla noder), visar vi att hela problemet med optisk nätverksdesign kan linjäriseras och därmed lösas optimalt. Den linjära formuleringen kan användas för att utforma ett balanserat nätverk, så att användningarna av både transceivrar och våglängder är höga, d.v.s. ingen av dessa dyra resurser underutnyttjas. Vi använder också den linjära formuleringen för att ge en reconduration metodik för att anpassa den virtuella topologin till ändrade tra c förhållanden.
Formuleringen i REF försöker minimera antalet ändringar i den virtuella topologin.
1,288,434
Wavelength-Routed Optical Networks: Linear Formulation, Resource Budgeting Tradeoffs, and a Reconfiguration Study
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': None, 'mag_field_of_study': ['Computer Science']}
475
Moderna modeller av relationsextraktion för uppgifter som ACE bygger på övervakad inlärning av relationer från små handmärkta corpora. Vi undersöker ett alternativt paradigm som inte kräver märkta corpora, undvika domänberoende av ACEstyle algoritmer, och tillåta användning av corpora av alla storlekar. Våra experiment använder Freebase, en stor semantisk databas med flera tusen relationer, för att ge fjärrövervakning. För varje par av enheter som förekommer i någon Freebase relation, hittar vi alla meningar som innehåller dessa enheter i en stor omärkt corpus och extrahera textfunktioner för att träna en relation klassificerare. Vår algoritm kombinerar fördelarna med övervakad IE (kombinerar 400.000 bullriga mönster funktioner i en probabilistisk klassificering) och oövervakad IE (extraherar ett stort antal relationer från stora corpora av alla domäner). Vår modell kan extrahera 10 000 fall av 102 relationer med en precision på 67,6%. Vi analyserar också funktionen prestanda, visar att syntaktiska parse funktioner är särskilt användbart för relationer som är tvetydiga eller lexiskt avlägsna i sitt uttryck.
Slutligen, våra experiment visar att vår strategi kan extrahera ett stort antal uttalanden (som PROSPERA och REF
10,910,955
Distant supervision for relation extraction without labeled data
{'venue': 'ACL-IJCNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
477
Den komplexa och fysiska distributionen av moderna fordonstillämpningar med aktiv säkerhet kräver användning av distribuerade arkitekturer. Dessa arkitekturer består av flera elektroniska styrenheter (ECU) som är anslutna till standardiserade bussar. Den vanligaste konfigurationen har periodisk aktivering av uppgifter och meddelanden i kombination med prioritetsbaserad schemaläggning för körtiden. Ett korrekt införande av program på sådana arkitekturer kräver att tidsgränserna för latens i slutänden uppfylls. Detta är en utmaning eftersom tidsfristerna måste gälla för en uppsättning ecu och bussar, som vart och ett stöder flera funktioner. Behovet av att ta hänsyn till äldre uppgifter och meddelanden komplicerar ytterligare scenariot. I detta arbete tilldelar vi automatiskt uppgifts- och meddelandeperioder för distribuerade fordonssystem. Detta uppnås genom att utnyttja schedulability analys inom en konvex optimering ram för att samtidigt tilldela perioder och tillfredsställa end-to-end latency begränsningar. Vårt tillvägagångssätt tillämpas på en industriell fallstudie samt ett exempel från litteraturen och visar sig vara både effektivt och effektivt.
Davare m.fl. I REF föreslås att uppgifts- och meddelandeperioder ska tilldelas samt att end-to-end latency-begränsningar ska uppfyllas för distribuerade fordonssystem.
2,629,654
Period optimization for hard real-time distributed automotive systems
{'venue': "DAC '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
478
Elektronisk medicinsk journal (EMR) är en avgörande form av hälso- och sjukvårdsdata, som för närvarande drar till sig mycket uppmärksamhet. Att dela hälsodata anses vara ett kritiskt tillvägagångssätt för att förbättra kvaliteten på hälso- och sjukvården och minska sjukvårdskostnaderna. EMR är dock fragmenterade mellan decentraliserade sjukhus, vilket hindrar datadelning och äventyrar patienternas privatliv. För att ta itu med dessa frågor, föreslår vi en blockchain-baserad integritetbevarande datadelning för EMRs, kallas BPDS. I BPDS lagras de ursprungliga EMR-värdena säkert i molnet och indexen är reserverade i en manipuleringssäker konsortieblockkedja. På så sätt kan risken för det medicinska dataläckage minskas avsevärt, och samtidigt säkerställer indexen i blockkedjan att EMR inte kan ändras godtyckligt. Säker datadelning kan utföras automatiskt enligt de fördefinierade åtkomstbehörigheter för patienter genom smarta kontrakt blockchain. Dessutom ger den gemensamma utformningen av den CP-ABE-baserade mekanismen för åtkomstkontroll och systemet för innehållsutdrag ett starkt skydd mot integritet i datadelningen. Säkerhetsanalys visar att BPDS är ett säkert och effektivt sätt att förverkliga datadelning för EMR.
För att främja datadelning och bevara integriteten, Liu et al. REF föreslog ett blockchain-baserat integritetsbevarande system för datadelning för EMRs, som lagrades i molnet och indexen var reserverade i en manipuleringssäker konsortieblockkedja.
53,208,117
BPDS: A Blockchain Based Privacy-Preserving Data Sharing for Electronic Medical Records
{'venue': '2018 IEEE Global Communications Conference (GLOBECOM)', 'journal': '2018 IEEE Global Communications Conference (GLOBECOM)', 'mag_field_of_study': ['Computer Science']}
479
Sammanfattning.Vi presenterar en allmän ram för tillämpning av maskininlärningsalgoritmer på verifiering av Markovs beslutsprocesser (MDP). Det primära målet med dessa tekniker är att förbättra prestandan genom att undvika en omfattande undersökning av statsrymden. Vårt ramverk fokuserar på probabilistisk räckvidd, som är en grundläggande egenskap för verifiering, och illustreras genom två tydliga momentiationer. Den första förutsätter att full kunskap om MDP finns tillgänglig, och utför en heuristisk-driven partiell undersökning av modellen, vilket ger exakta lägre och övre gränser på den nödvändiga sannolikheten. I det andra fallet tar vi itu med det fall där vi bara får provsmaka MDP, och ger probabilistiska garantier, återigen när det gäller både de nedre och övre gränserna, vilket ger effektiva stoppkriterier för tillnärmningen. Det senare är den första utvidgningen av den statistiska modellkontrollen av obundna egenskaper i MDP. I motsats till andra relaterade tillvägagångssätt begränsar vi inte vår uppmärksamhet till tidsbundna (finita-horizon) eller diskonterade fastigheter, inte heller antar några särskilda egenskaper hos MDP. Vi visar också hur våra tekniker sträcker sig till LTL-mål. Vi presenterar experimentella resultat som visar hur vårt ramverk fungerar på flera exempel.
Brázdil m.fl. REF ger probabilistiska garantier genom att utföra en heuristisk-driven undersökning av modellen.
6,378,113
Verification of Markov Decision Processes using Learning Algorithms
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
480
Abstract-This paper presenterar en visionsbaserad strategi för SLAM i storskaliga miljöer med minimala sensoriska och beräkningsmässiga krav. Metoden bygger på en grafisk representation av robotposer och kopplingar mellan poserna. Länkar mellan robotposer är etablerade baserat på odomety och bild likhet, då en avslappningsalgoritm används för att generera en globalt konsekvent karta. För att uppskatta kovariansmatrisen för länkar som erhålls från visionssensorn införs en ny metod baserad på den relativa likheten mellan angränsande bilder, utan att det krävs avstånd till bildegenskaper eller geometri med flera vyer. Inomhus- och utomhusexperiment visar att tillvägagångssättet skalar sig väl till storskaliga miljöer och producerar topologiskt korrekta och geometriskt korrekta kartor till minimal beräkningskostnad. Mini-SLAM visade sig producera konsekventa kartor i en ostrukturerad, storskalig miljö (den totala stiglängden var 1,4 km) som innehöll både inomhus- och utomhuspassager. I detta dokument presenteras en ny strategi för problemet med samtidig lokalisering och kartläggning (SLAM). Den föreslagna metoden kallas "Mini-SLAM" eftersom den är minimalistisk på flera sätt. På hårdvarusidan är den enbart beroende av odometri och en allsidig kamera. Att använda en kamera som extern informationskälla för SLAM-algoritmen ger en mycket billigare lösning jämfört med toppmoderna 2D- och 3D-laserskannrar med ett typiskt ännu längre räckvidd. Det är vidare känt att visionen kan möjliggöra lösningar i mycket belamrade miljöer där laserskannerbaserade SLAM-algoritmer misslyckas [1]. I detta dokument används avläsningarna från en laserscanner för att visa att de skapade kartorna är konsekventa. Observera dock att laserskannern endast används för visualisering och inte används i den visuella SLAM-algoritmen. Förutom de sparsamma hårdvarukraven är metoden också minimalistisk i sina beräkningskrav. Kartuppskattning utförs online av en linjär tid SLAM algoritm som fungerar på en effektiv graf representation. Den största skillnaden mot andra visionsbaserade SLAM-strategier är att det inte finns någon uppskattning av positionerna för en uppsättning berörda landmärken, vilket gör det möjligt för algoritmen att skala upp sig bättre med miljöns storlek. I stället används ett mått på bildlikheten för att uppskatta den pose differensen mellan motsvarande bilder och osäkerheten i denna uppskattning.
Slutligen presenterar REF en minimalistisk strategi baserad på en topologisk karta för miljöer av medelstor till stor storlek.
599,026
Mini-SLAM: Minimalistic Visual SLAM in Large-Scale Environments Based on a New Interpretation of Image Similarity
{'venue': 'Proceedings 2007 IEEE International Conference on Robotics and Automation', 'journal': 'Proceedings 2007 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Computer Science']}
481
Utformningen av approximationsalgoritmer för klusterpunkter i metriska utrymmen är ett blomstrande forskningsområde, med stor ansträngning att få en bättre förståelse för approximationsgarantierna för många objektiva funktioner som k-median, k-medel och min-sum kluster. Denna strävan efter bättre approximation algoritmer drivs delvis av den implicita förhoppningen att bättre approximationer också kommer att ge mer exakta kluster. Särskilt när det gäller problem som att gruppera proteiner efter funktion, eller gruppera bilder efter ämne, är det verkliga syftet att matcha någon okänd korrekt "mål" klustering och den implicita förhoppningen är att ungefär optimera dessa objektiva funktioner faktiskt kommer att producera en klustering som är nära detta mål när det gäller hur datapunkter är kluster. I detta dokument visar vi att om vi gör detta implicita antagande explicit, dvs. om vi antar att vårt fall uppfyller villkoret att varje c-tillnärmning till det givna klustermålet 0 är nära målet, då kan vi effektivt producera kluster som ligger nära målet, även för värden c för vilka en c-uppskattning är NP-hård. Vi kallar detta villkor (c, på)-tillnärmning-stabilitet och visar att vi kan uppnå denna garanti för alla konstant c > 1, för tre viktiga och brett studerade objektiva funktioner, nämligen k-median, k-medel, och min-sum mål. Således kan vi prestera nästan lika bra i termer av avstånd till målet klustering som om vi kunde approxima målet till denna NP-hård värde. Det vill säga, under antagandet att c-uppskattningar är bra lösningar, kan vi närma oss målet även om det i allmänhet är svårt att uppnå en c-uppskattning till målet.
Tillnärmning Stabilitet Balcan et al. REF definierade (α, ) - ungefärlig stabilitet, och visade algoritmer som returnerade nära-optimala lösningar för k-median och k-medelvärden när α > 1, och min-sum när α > 2.
2,859,839
Approximate clustering without the approximation
{'venue': 'In SODA ’09: Proceedings of the Nineteenth Annual ACM -SIAM Symposium on Discrete Algorithms', 'journal': None, 'mag_field_of_study': ['Computer Science']}
482
Abstrakt. I detta dokument presenterar vi en ny metod som tillämpas i Spanien för att modellera rumsligt överflöd mönster av potentiella vektorer av sjukdom vid en medelstor rumslig upplösning av 5 x 5 km med hjälp av en landsomfattande databas med överflödsdata för fem Culicoides arter, slumpmässig regression Skogsmodellering och en rumslig datauppsättning av mark mätt och fjärrkännd eko-klimatiska och miljöprediktoriska variabler. Först beräknades sannolikheten för förekomst. I ett andra steg fastställdes en direkt regression mellan sannolikheten för förekomst och fångstmängd för att verifiera förhållandets linearitet. Slutligen användes sannolikheten för förekomst i kombination med uppsättningen av prediktorvariabler för att modellera överflöd. I varje fall användes prediktorernas variabla betydelse för att biologiskt tolka resultaten och för att jämföra båda modellernas utfall, och modellens prestanda bedömdes med hjälp av fyra olika noggrannhetsmått. Resultaten visas för C. imicola, C. newsteadii, C. pulicaris group, C. punctatus och C. obsoletus group. I varje fall är sannolikheten för förekomst en god förutsägare av överflöd vid den använda rumsliga upplösningen på 5 x 5 km. Dessutom drivs C. imicola och C. obsoletus gruppen starkt av sommarregn. Det rumsliga mönstret är omvänt mellan de två arterna, vilket tyder på att de nedre och övre tröskelvärdena är olika. C. pulicaris-gruppen drivs huvudsakligen av temperaturen. Mönstren för C. newsteadii och C. punctatus är mindre tydliga. Slutsatsen dras att den föreslagna metoden kan användas som underlag för modeller för överföring-infektion-återvinning (TIR) och R 0-modeller. Metoden kommer att bli tillgänglig för allmänheten som en del av VECMAPTM-programvaran.
Olika, REF förutspådde både närvaro och överflöd av fem olika vektorer (C. imicola, C. newsteadi, Pulicaris komplex, C. punctatus och C. obsoletus) över hela det spanska territoriet.
8,793,241
Abundance modelling of invasive and indigenous Culicoides species in Spain
{'venue': 'Geospatial health', 'journal': 'Geospatial health', 'mag_field_of_study': ['Biology', 'Medicine']}
483
En tråd som utför på en samtidig multitrådning (SMT) processor som upplever en långlatency belastning kommer så småningom att stanna medan verkställande resurser. Befintliga lastmedvetna SMT hämta policyer begränsa mängden resurser som tilldelats av en förhalad tråd genom att identifiera lång latens belastningar och förhindra tråden från att hämta fler instruktioner-och i vissa implementationer, instruktioner bortom lång latens belastning spolas för att frigöra tilldelade resurser. Denna artikel föreslår en SMT hämta policy som tar hänsyn till tillgängliga minne nivå parallellism (MLP) i en tråd. Den viktigaste idén som föreslås i denna artikel är att vid en isolerad last med lång latens (dvs. det finns ingen MLP) bör tråden förhindras från att fördela ytterligare resurser. Om flera oberoende laster med lång latens överlappar varandra (dvs. det finns MLP) bör tråden emellertid allokera så många resurser som behövs för att fullt ut exponera den tillgängliga MLP. MLP-aware hämta politik uppnå bättre prestanda för MLP-intensiva trådar på SMT-processorer, vilket leder till högre övergripande systemgenomströmning och kortare genomsnittlig vändningstid än tidigare föreslagna hämta politik.. Det utökar vårt tidigare arbete: genom att tillhandahålla en utökad presentation och diskussion; genom att tillhandahålla prestandanummer för en mer realistisk baslinje processor konfiguration, vilket inkluderar en hårdvara prefetcher; dessutom är den experimentella inställningen mer rigorös genom att överväga SimPoint simuleringspunkter och mer aggressivt optimerade binärer; genom att studera effekten av SMT processor mikroarkitektur konfiguration på prestandan för MLP-aware hämta policy, vilket ger mer insikt i prestandatrender som kan förväntas över mikroarkitekturer; genom att undersöka och utvärdera ett antal alternativa MLP-aware hämta policyer; genom att utvärdera den föreslagna hämta policyer med hjälp av systemnivå mätvärden, nämligen system throughput (STP) och normaliserad turnaround time (ANTT); genom att jämföra den föreslagna MLP-aware hämta politik mot statiska och dynamiska resurspartitionering. S. Eyerman och L. Eeckhout är postdoktorer med fonden för vetenskaplig forskningFlanders (Belgien) (FWO-Vlaanderen). Författarens adress: Stijn Eyerman och Lieven Eeckhout, ELIS-avdelningen, Gent University, SintPietersnieuwstraat 41, B-9000 Gent, Belgien; e-post: {seyerman,leeckhou}@elis.UGent.be. Tillstånd att göra digitala eller hårda kopior del eller allt detta arbete för personligt eller klassrum användning beviljas utan avgift förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior visar detta meddelande på första sidan eller första skärmen av en skärm tillsammans med den fullständiga citering. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar, för att omfördela till listor, eller för att använda någon komponent i detta verk i andra verk krävs förhandsgodkännande och/eller avgift. Tillstånd kan begäras från publikationsavdelningen, ACM, Inc., 2 Penn Plaza, Suite 701, New York, NY 10121-0701 USA, fax +1 (
I stället för att förhindra alla trådar med långlatensbelastningar från att komma in i rörledningen, tilldelar policyn Memory-Level Parallelism (MLP)-aware hämta så många resurser som behövs till MLP-intensiva trådar för att fullt ut utnyttja den höga MLP-nivån och bara förhindra att trådar med isolerade laster med lång latens tilldelas fler resurser.
12,189,239
Memory-level parallelism aware fetch policies for simultaneous multithreading processors
{'venue': 'TACO', 'journal': None, 'mag_field_of_study': ['Computer Science']}
484
I detta dokument granskar vi de senaste trenderna och framstegen när det gäller korrelationsbaserad mönsterigenkänning och spårning i framåtblickande infraröda (FLIR) bilder. I synnerhet diskuterar vi matchade filterbaserade korrelationstekniker för måldetektering och spårning som används i stor utsträckning för olika realtidstillämpningar. Vi analyserar och presenterar testresultat med nyligen rapporterade matchade filter såsom maximal genomsnittlig korrelationshöjd (MACH) filter och dess varianter, och avstånd klassificering korrelationsfilter (DCCF) och dess varianter. Testresultat presenteras för både enstaka/flera måldetektering och spårning med hjälp av olika verkliga FLIR-bildsekvenser.
Alam och Bhuiyan REF ger en översikt över egenskaperna hos matchade filter korrelationstekniker för detektion och spårning i TIR-bilder.
894,395
Trends in Correlation-Based Pattern Recognition and Tracking in Forward-Looking Infrared Imagery
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
485
Vi introducerar en stokastisk grafbaserad metod för att beräkna den relativa betydelsen av textenheter för behandling av naturligt språk. Vi testar tekniken på problemet med textsammanfattning (TS). Extractive TS förlitar sig på begreppet meningshalt för att identifiera de viktigaste meningarna i ett dokument eller en uppsättning dokument. Salience definieras vanligtvis i termer av förekomsten av särskilda viktiga ord eller i termer av likhet med en centroid pseudo-sentence. Vi överväger ett nytt tillvägagångssätt, LexRank, för beräkning av mening betydelse baserat på begreppet eigenvekor centrality i en graf representation av meningar. I denna modell, en konnektivitetsmatris baserad på intra-sentence cosinus likhet används som adjacency matris av graf representationen av meningar. Vårt system, baserat på LexRank rankas på första plats i mer än en uppgift i den senaste DUC 2004 utvärdering. I detta dokument presenterar vi en detaljerad analys av vår strategi och tillämpar den på en större datamängd inklusive data från tidigare DUC-utvärderingar. Vi diskuterar flera metoder för att beräkna centralitet med hjälp av likhetsgrafen. Resultaten visar att gradbaserade metoder (inklusive LexRank) överträffar både centroidbaserade metoder och andra system som deltar i DUC i de flesta fall. Dessutom överträffar LexRank med tröskelmetoden de andra gradbaserade teknikerna inklusive kontinuerlig LexRank. Vi visar också att vårt tillvägagångssätt är ganska okänsligt för det buller i data som kan uppstå till följd av en ofullständig aktuell samling av dokument.
centroid-baserad metod REF är en av de mest populära utvinningssammanfattningsmetoder.
506,350
LexRank: Graph-based Lexical Centrality as Salience in Text Summarization
{'venue': 'Journal Of Artificial Intelligence Research, Volume 22, pages 457-479, 2004', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
486
Abstract-Vi formulerar kantdetektion som statistisk slutledning. Denna statistiska kantdetektering är datadriven, till skillnad från standardmetoder för kantdetektering som är modellbaserade. För alla edge detektion filter (implementera lokala kantsignaler), använder vi presegmenterade bilder för att lära sig sannolikhetsfördelningar av filtersvar beroende på om de utvärderas på eller utanför en kant. Kantdetektering är formulerad som en diskrimineringsuppgift specificerad genom ett sannolikhetsförhållandetest på filtersvaren. Detta tillvägagångssätt betonar nödvändigheten av att modellera bildens bakgrund (utkanterna). Vi representerar den villkorliga sannolikhetsfördelningen nonparametrically och illustrerar dem på två olika datauppsättningar av 100 (Sowerby) och 50 (South Florida) bilder. Flera kanter, inklusive krominans och multipelskala, kombineras med hjälp av deras gemensamma fördelningar. Därför är denna cue-kombination optimal i statistisk mening. Vi utvärderar effektiviteten av olika visuella signaler med hjälp av Chernoff-information och reception Operatör Characteristic (ROC) kurvor. Detta visar att vårt tillvägagångssätt ger kvantitativt bättre resultat än Canny edge detektor när bilden bakgrund innehåller betydande skräp. Dessutom gör det möjligt för oss att bestämma effektiviteten av olika edge cues och ger kvantitativa åtgärder för fördelarna med flera nivåer bearbetning, för användning av krominance, och för den relativa effektiviteten av olika detektorer. Dessutom visar vi att vi kan lära oss dessa villkorade distributioner på en datauppsättning och anpassa dem till den andra med endast liten försämring av prestanda utan att känna till sanningen på den andra datauppsättningen. Detta visar att våra resultat inte bara är domänspecifika. Vi tillämpar samma metod för den rumsliga grupperingen av kantsignaler och få analogier till icke-maximal suppression och hysteres.
I REF tas problemet med att upptäcka kanter upp som ett statistiskt slutsatssproblem.
11,835,209
Statistical Edge Detection: Learning and Evaluating Edge Cues
{'venue': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
487
Sociala nätverkssystem, liksom last.fm, spelar en viktig roll i Web 2.0, som innehåller stora mängder multimediaberikade data som förbättras både genom explicita användaranteckningar och implicit aggregerad feedback som beskriver varje användares personliga preferenser. Det är också en vanlig tendens för dessa system att uppmuntra skapandet av virtuella nätverk bland sina användare genom att göra det möjligt för dem att upprätta vänskapsband och därigenom tillhandahålla ett nytt och direkt medium för utbyte av data. Vi undersöker vilken roll dessa ytterligare relationer har för att utveckla ett system för rekommendationer. Med beaktande av både den sociala notation och vänskap som ingår i den sociala graf som upprättats bland användare, objekt och taggar, skapade vi ett samverkande rekommendationssystem som effektivt anpassar sig till varje användares personliga informationsbehov. Vi antar den allmänna ramen för Random Walk med omstarter för att ge ett mer naturligt och effektivt sätt att representera sociala nätverk. I detta arbete samlade vi en representativ del av musik sociala nätverket last.fm, fånga uttryckligen uttryckt band av vänskap med användaren samt sociala taggar. Vi utförde en serie jämförande experiment mellan Random Walk med Restarts modellen och en användarbaserad samarbetsfiltreringsmetod med Pearson Correlation likhet. Resultaten visar att grafmodellens system drar nytta av den ytterligare information som finns inbäddad i social kunskap. Dessutom överträffar grafmodellen den vanliga samarbetsfiltreringsmetoden.
Konstas m.fl. REF använder RWR för att ge ett mer naturligt och effektivt sätt att representera sociala nätverk.
875,635
On social networks and collaborative recommendation
{'venue': 'SIGIR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
488
Mängden sekvensinformation i offentliga arkiv ökar snabbt. Även om dessa data sannolikt kommer att innehålla kliniskt viktig information som ännu inte har upptäckts, vår förmåga att effektivt minera dessa databaser är begränsad. Här introducerar vi Sequence Bloom Trees (SBT), en metod för att fråga tusentals kortlästa sekvenseringsexperiment efter sekvens, 162 gånger snabbare än befintliga tillvägagångssätt. Tillvägagångssättet söker stora dataarkiv för alla experiment som involverar en given sekvens. Vi använder SBTs för att söka 2.652 mänskliga blod, bröst och hjärna RNA-seq experiment för alla 214.293 kända transkript på under 4 dagar med mindre än 239 MB RAM och en enda CPU. Att söka sekvensarkiv i denna skala och i denna tidsram är för närvarande inte möjligt med hjälp av befintliga verktyg. National Institutes of Health (NIH) Sequence Read Archive (SRA) 1 innehåller ~3 petabaser av sekvensinformation som kan användas för att besvara biologiska frågor som enstaka experiment inte har befogenhet att ta itu med. Att söka i hela en sådan databas efter en sekvens har dock inte varit möjligt i rimlig beräkningstid. Vissa framsteg har gjorts mot att möjliggöra sekvenssökningar på stora databaser. NIH SRA ger en sekvens sökning funktionalitet 2 ; dock är sökningen begränsad till ett begränsat antal experiment. Befintliga fulltext indexering datastrukturer såsom Burrows-Wheeler transform 3, FM-index 4 eller andra 5-7 är för närvarande oförmögna att minera data av denna skala. Word-baserade index 8, 9, såsom de som används av internet sökmotorer, är inte lämpliga för editdistans-baserade biologiska sekvens sökningar. Den sekvensspecifika lösningen caBLAST och dess varianter 10-12 kräver ett index av kända genom, gener eller proteiner, och kan därför inte söka efter nya sekvenser. Dessutom kan ingen av dessa befintliga metoder matcha en frågesekvens q som spänner över många korta avläsningar. Här använder vi en indexeringsdatastruktur, Sequence Bloom Tree (SBT), för att identifiera alla experiment i en databas som innehåller en given frågesekvens q. En fråga är en godtycklig sekvens, såsom en utskrift. SBT-indexet är oberoende av eventuella frågor, så metoden är inte begränsad till att söka efter kända sekvenser, och indexet kan effektivt byggas och lagras i begränsat utrymme. Det kräver inte heller att originalsekvensfilerna behålls och kan distribueras separat från data. SBT är dynamiska, vilket möjliggör införande och radering av nya experiment. En grovkornig version av en SBT kan laddas ner och därefter förfinas eftersom mer specifika resultat behövs. De kan sökas med hjälp av lågt minne för existensen av godtyckliga frågesekvenser. Vi visar att SBTs kan söka stora samlingar av RNA-seq experiment för en given transkript order av magnitud snabbare än befintliga metoder. RESULTAT SBTs skapa en hierarki av komprimerade blomfilter 13, 14, som effektivt lagra en uppsättning objekt. Varje blomfilter innehåller den uppsättning k-mers (längd-k subsekvenser) som finns i en delmängd av sekvenseringsförsöken. SBT är binära träd där sekvenseringsförsöken är förknippade med blad, och varje nod v i SBT innehåller ett blomfilter som innehåller den uppsättning k-mers som finns i varje avläsning i varje experiment i underträdet rotat vid v (Supplementary Fig. 1).................................................................. Vi minskade utrymmet användning genom att använda blomfilter som komprimeras av RRR 15 komprimeringsschema (Online Methods). Hierarkier av blomfilter har använts för datahantering på distribuerade system 16. Men de har inte tidigare tillämpats på sekvenssökning, och vi finner att detta gör att vi kan justera blomfilter felfrekvensen mycket högre än i andra sammanhang (Theorem 2, Online Methods), kraftigt minska utrymmeskraven. Bloom filter har också använts för att lagra implicita de Bruijn grafer 17,18, och en vy av SBTs är som en generalisering av detta till flera grafer. Vi använde SBT för att söka RNA-seq experiment för uttryckta isoformer. Vi byggde ett SBT på 2.652 RNA-seq experiment i SRA för humant blod, bröst och hjärnvävnad ( Kompletterande tabell 1). Hela SBT krävde endast 200 GB (2,3% av storleken på de ursprungliga sekvenseringsdata) ( Kompletterande tabell 2 ). För dessa uppgifter tog byggandet av trädet 2,5 min per fil (kompletterande tabell 3). Dessa experiment kunde sökas för en enda utskrift fråga i, i genomsnitt, 20 min (Fig. 1), med användning av mindre än 239 MB RAM med en enda tråd (Online Methods). Vi uppskattar den jämförbara söktiden med hjälp av SRA-BLAST 2 eller kartläggning av STAR 19 att vara 2,2 d respektive 921 d, respektive (Online Methods), men SRA-BLAST och STAR returanpassningar medan SBT inte gör det. Men även en mycket snabb anpassning såsom STAR kan inte identifiera frågeinnehållande experiment så snabbt som SBT. Vi testade också satser av 100 frågor och fann SBT var en uppskattad 4 056 gånger snabbare än en batched version av kartläggningen 3 0 1 metod (kompletterande bild. 2).................................................................. Dessa frågor utfördes över varierande känslighetströskel (minimifraktionen av frågek-mers som måste finnas för att returnera en "hit") samt utskrifter per miljon (TPM) tröskel som används för att välja frågeuppsättningen ( Kompletterande figurer. 3 och 4). För ungefär hälften av frågorna gav de övre nivåerna i SBT-hierarkin betydande fördelar, särskilt när det gällde frågor som inte uttrycktes i något experiment (Supplementary Fig. 5 och kompletterande tabell 4. SBT kan påskynda användningen av algoritmer, såsom STAR eller SRA-BLAST, genom att först utesluta experiment där frågesekvenserna inte är närvarande. Detta gör det möjligt för efterföljande behandlingstid att skala med storleken på antalet träffar snarare än storleken på databasen. Vi använde först SBT för att filtrera hela datasetet bestående av 2.652 mänskliga blod-, bröst- och hjärn-RNA-seq-experiment. Vi jämförde sedan prestandan hos STAR eller SRA-BLAST på den filtrerade datasetet med tiden att bearbeta den ofiltrerade datasetet med dessa algoritmer. Genom att använda SBT för att först filtrera data minskades den totala frågetiden för STAR eller SRA-BLAST med en faktor på 3 (kompletterande bild. 6).................................................................. För att analysera noggrannheten hos SBT-filtret, jämförde vi de experiment som returnerades av SBT med de där frågesekvensen uppskattades uttryckas med hjälp av Sailfish 20. Eftersom det är opraktiskt att använda befintliga verktyg för att uppskatta uttryck över hela uppsättningen experiment, vi frågade hela trädet, men uppskattad noggrannhet på en uppsättning av 100 slumpmässiga filer som vi körde Sailfish (Fig. 2).................................................................. Tre samlingar av representativa frågor konstruerades med hjälp av Sailfish, betecknad av Hög, Medium och Låg, som inkluderade utskrifter av längd > 1000 nt som sannolikt skulle uttryckas på en högre, medium eller låg nivå i minst ett experiment som ingår i uppsättningen av 100 experiment på vilken Sailfish kördes. Den höga uppsättningen valdes till 100 slumpmässiga transkript med ett uppskattat överflöd av > 1000 TPM i minst ett experiment. De Medium och Low frågeuppsättningar valdes på liknande sätt slumpmässigt bland utskrifter med >500 och >100 TPM, respektive. Dessa Sailfish uppskattningar togs som den grundläggande sanningen i uttryck för frågeutskrifterna. Både falska positiva och falska negativa kan uppstå från en missmatchning mellan SBT definition av närvarande (täckning av k-mers över en tillräcklig bråkdel av frågan) och Sailfish definition av uttryckt (beräknas genom läsning kartläggning och en förväntan-maximization inference). Dessa två definitioner är relaterade, men inte helt i linje, vilket resulterar i en viss oenighet som kvantifieras av de falskt positiva satserna (FPR) och falskt negativa satserna i figur 2. De observerade falska negativa är främst drivs av några avvikande frågor för vilka SBT rapporterar inga resultat men deras uttryck är över TPM-tröskeln som uppskattas av Sailfish. Detta stöds av det faktum att den genomsnittliga true-positiva takten på till = 0.7 för frågor som returnerar minst en fil var 96-100%, och medianen true-positiva frekvensen i alla frågor var 100% för alla utom den strängaste till (Fig. 2).................................................................. Vi använde SBT för att söka alla blod, hjärna och bröst SRA sekvensering körs för att uttrycka alla 214.293 kända mänskliga transkript och använde dessa resultat för att identifiera vävnadsspecifika transkript ( Kompletterande tabell 5 och Kompletterande bild. 7)................................................................. Denna sökning tog 3.3 d med hjälp av en enda tråd (kompletterande bild. 8 ) och 8.............................................................................................................. Det finns för närvarande ingen sökning eller anpassning verktyg som kan lösa denna skala av sekvenssökning problem i en rimlig tidsram, men vi uppskattar en likvärdig sökning med Sailfish skulle ta 92 d. Hastigheten och beräkningseffektivitet SBTs kommer att göra det möjligt både enskilda laboratorier och sekvensering center för att stödja storskaliga sekvens sökningar, inte bara för RNA-seq data, men för genomiska och metagenomiska samlingar också. Forskare kan söka efter förhållanden bland tusentals som sannolikt kommer att uttrycka en viss ny isoform eller använda SBT för att identifiera metagenomiska prover som sannolikt kommer att innehålla en viss bakteriestam. Snabb sökning av denna typ kommer att vara avgörande för att på ett bra sätt utnyttja den ständigt växande insamlingen av tillgängliga sekvensdata. För närvarande är det svårt att få tillgång till alla relevanta uppgifter om en viss forskningsfråga från tillgängliga sekvenseringsförsök. Enskilda sjukhus, sekvenseringscenter, forskningskonsortier och forskargrupper samlar in data i snabb takt och står inför samma svårighet att inte snabbt kunna testa beräkningshypoteser eller att hitta de relevanta förutsättningarna för ytterligare studier. SBT möjliggör effektiv gruvdrift av dessa data och kan användas för att avslöja biologiska insikter som endast kan avslöjas genom analys av flera datamängder från olika källor. Dessutom kräver SBT inte förkunskaper om sekvenser av intresse, vilket gör det möjligt att identifiera, till exempel, uttryck av okända isoformer eller långa icke-kodande RNA. Denna algoritm gör det praktiskt att söka stora sekvensering arkiv och kan öppna upp nya användningsområden för dessa rika samlingar av data. ( 1 5 - t h r e d) Tid (min) Figur 1 Beräknade körtider för sökverktyg för en utskrift. SBT per query tid spelades in med maximalt ett enda filter i aktivt minne och en tråd. De andra barerna visar den beräknade tiden för att uppnå samma frågeresultat med hjälp av SRA-BLAST och STAR.
Den för närvarande mest citerade raden av arbete på DNA k-mer index för ungefärlig sökning är Sequence Bloom Trees (SBTs) första föreslås av Solomon och Kingsford REF.
18,391,638
Fast search of thousands of short-read sequencing experiments
{'venue': 'Nature Biotechnology', 'journal': 'Nature Biotechnology', 'mag_field_of_study': ['Biology', 'Medicine']}
489
Abstrakt. Att spåra mänsklig pose i realtid är ett svårt problem med många intressanta tillämpningar. Befintliga lösningar lider av en mängd olika problem, särskilt när de ställs inför ovanliga mänskliga poser. I detta papper härleder vi en algoritm för att spåra mänskliga pose i realtid från djupsekvenser baserade på MAP inference i en probabilistisk temporal modell. Huvudidén är att utvidga ICP-målet (iterative nearly points) genom att modellera begränsningen att det observerade objektet inte kan komma in i fritt utrymme, utrymmets area framför mätningarna i det verkliga området. Vårt primära bidrag är en förlängning till den artikulerade ICP-algoritmen som effektivt kan genomdriva denna begränsning. Våra experiment visar att inklusive denna term förbättrar spårning noggrannhet avsevärt. Det resulterande filtret körs på 125 ramar per sekund med hjälp av en enda stationär CPU-kärna. Vi ger omfattande experimentella resultat på utmanande realtidsdata, vilket visar att algoritmen överträffar de tidigare toppmoderna spårarna både i beräkningseffektivitet och noggrannhet.
Ganapathi m.fl. REF utförde realtidsdetektering från en sekvens av djupbilder baserade på den probabilistiska tidsmodellen.
2,815,056
Real-Time Human Pose Tracking from Range Data
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
490
Abstract-Traditionella metoder för trådlös sensor nätverk diagnos är främst sjunk-baserade. De samlar aktivt globala bevis från sensornoder till diskhon för att genomföra centraliserad analys vid den kraftfulla back-end. Å ena sidan, långdistans proaktiv informationshämtning medför enorma överföring overhead; å andra sidan, på grund av kopplingseffekten mellan diagnoskomponenten och själva applikationen, sjunker ofta misslyckas med att få fullständiga och exakta bevis från nätverket, särskilt för de problematiska eller kritiska delarna. För att undvika stora overhead i bevis insamling process, självdiagnos injicerar fel inference moduler i sensor noder och låta dem göra lokala beslut. Diagnos resultat från enskilda noder, är dock i allmänhet felaktiga på grund av den begränsade omfattningen av systemets prestanda. Dessutom leder befintliga självdiagnosmetoder vanligtvis till inkonsekventa resultat från olika inferensprocesser. Hur man balansera arbetsbelastningen bland sensorn noderna i en diagnos uppgift är en kritisk fråga. I detta arbete presenterar vi en ny in-network diagnos metod som heter Local-Diagnosis (LD2), som genomför diagnosprocessen i ett lokalt område. LD2 uppnår diagnosbeslut genom distribuerade bevisfusionsoperationer. Varje sensornod ger sina egna bedömningar och bevisen sammansmältes inom ett lokalt område baserat på Dempster-Shafer-teorin, vilket resulterar i konsensusdiagnosrapporten. Vi implementerar LD2 på TinyOS 2.1 och undersöker prestandan på en 50 noder inomhus testbädd.
LD2 REF är en in-network diagnos metod som genomför diagnosprocessen i ett lokalt område.
8,280,253
Sherlock Is Around: Detecting Network Failures with Local Evidence Fusion
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
491
Abstract-Traditionella metoder för att på ett tillförlitligt sätt överföra information över ett felbenäget nätverk använder antingen framåt felkorrigering (FEC) eller vidaresändningsteknik. I detta dokument föreslår vi vissa system för nätkodning för att minska antalet sändningar från en avsändare till flera mottagare. Huvudidén är att göra det möjligt för avsändaren att kombinera och på nytt överföra de förlorade paketen på ett visst sätt så att flera mottagare med en sändning kan återvinna sina egna förlorade paket. Som jämförelse kan vi härleda några teoretiska resultat på bandbreddseffektiviteten hos de föreslagna nätkodningssystemen och de traditionella automatiska upprepningssystemen (ARQ). Både simuleringar och teoretisk analys bekräftar fördelarna med de föreslagna nätkodningssystemen jämfört med ARQ-systemen.
I REF, Dong et al. Jämföra effektiviteten hos det nätbaserade program som bygger på kodning och de traditionella ARQ-baserade systemen.
16,989,586
Wireless Broadcast Using Network Coding
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
492
Abstract-När en mikroantenn fordon (MAV) fångar ljud som avges från en mark- eller antennkälla, dess motorer och propellrar är mycket närmare mikrofon(er) än ljudkällan, vilket leder till extremt låga signal-till-brus-förhållanden (SNR), t.ex., −15 dB. Medan mikrofon-array tekniker har undersökts intensivt, deras tillämpning på MAV-baserade ego-buller minskning har rapporterats i sällsynta fall i litteraturen. För att fylla denna lucka implementerar och jämför vi tre typer av mikrofonarrayalgoritmer för att förbättra det målljud som fångas upp av en MAV. Dessa algoritmer inkluderar en nyligen framtagen teknik, tid-frekvens spatial filtrering, och två välkända tekniker, strålformning och blind källkod separation. I synnerhet, baserat på observationen att målljudet och egobullret vanligtvis har koncentrerat energin till glest isolerade tid-frekvensbehållare, föreslår vi att man använder tids-frekvensbearbetningsmetoden, som formulerar ett rumsligt filter som kan förbättra en målriktning baserad på lokal riktning för ankomstskattningar vid enskilda tid-frekvensbehållare. Genom att utnyttja den akustiska signalens tidsfrekventa gleshet arbetar detta rumsliga filter robust för ljudförstärkning i närvaro av stark egobuller. Vi analyserar i detalj de tre teknikerna och genomför en jämförande utvärdering med verkligt inspelade MAV-ljud. Experimentella resultat visar överlägsenheten av separation av blinda källor och tidsfrekvensfiltrering i låg-SNR-scenarier.
Tid-frekvens bearbetning, ett nyligen föreslaget tillvägagångssätt, utnyttjar glesheten i den akustiska signalen i tidfrekvensdomänen för att utforma ett rumsligt filter som förbättrar signalen från en önskad riktning REF.
17,617,811
Microphone-Array Ego-Noise Reduction Algorithms for Auditory Micro Aerial Vehicles
{'venue': 'IEEE Sensors Journal', 'journal': 'IEEE Sensors Journal', 'mag_field_of_study': ['Engineering']}
493
Abstract-Vi anser att problemet med automatisk identifiering av ansikten i videor som filmer, med tanke på en ordbok av kända ansikten från en publik eller en alternativ databas. Detta har applikationer inom videoindexering, innehållsbaserad sökning, övervakning och realtidsigenkänning på bärbara datorer. Vi föreslår en strategi i två steg för detta problem. Först känner vi igen ansiktena i en video med hjälp av ett sparsamt representationsramverk med hjälp av l1-minimering och väljer några nyckel-ramar baserat på en robust förtroendemått. Vi använder sedan transduktiv inlärning för att sprida etiketterna från nyckel-ramarna till de återstående ramar genom att införliva begränsningar samtidigt i tids- och funktionsutrymmen. Detta står i kontrast till några av de tidigare tillvägagångssätten där varje testram/spår identifieras oberoende, utan att man bortser från korrelationen mellan ansikten i videospår. Att ha några nyckelramar som hör till få ämnen för att sprida etiketter snarare än ett stort lexikon med aktörer minskar förvirringen. Vi utvärderar prestandan av vår algoritm på Movie Trailer ansikte dataset och fem filmklipp, och uppnå en betydande förbättring i märkning noggrannhet jämfört med tidigare metoder.
Kumar m.fl. REF föreslog en videobaserad ansiktsigenkänningsmetod genom att välja nyckelramar och sprida etiketterna på nyckelramar till andra ramar.
17,680,904
Face Recognition in Videos by Label Propagation
{'venue': '2014 22nd International Conference on Pattern Recognition', 'journal': '2014 22nd International Conference on Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
495
Syntetisering av högkvalitativa bilder från textbeskrivningar är ett utmanande problem i datorseendet och har många praktiska tillämpningar. Prover som genereras av befintliga text-till-bild-metoder kan grovt återspegla betydelsen av de givna beskrivningarna, men de misslyckas med att innehålla nödvändiga detaljer och levande objektdelar. I detta dokument föreslår vi Stacked Generative Adversarial Networks (StackGAN) att generera 256×256 fotorealistiska bilder konditionerade på textbeskrivningar. Vi delar upp det svåra problemet i mer hanterbara delproblem genom en skissrefinieringsprocess. Stage-I GAN skisserar objektets primitiva form och färger baserat på den givna textbeskrivningen, vilket ger Stage-I lågupplösta bilder. Steg II GAN tar Stage-I resultat och textbeskrivningar som ingångar, och genererar högupplösta bilder med fotorealistiska detaljer. Den kan rätta till brister i steg I-resultaten och lägga till övertygande detaljer i förfiningsprocessen. För att förbättra mångfalden av de syntetiserade bilderna och stabilisera utbildningen av den villkorliga-Gan, introducerar vi en ny Conditioning Augmentation teknik som uppmuntrar jämnhet i latent konditioneringsgrenröret. Omfattande experiment och jämförelser med state-of-the-arts på referensdatauppsättningar visar att den föreslagna metoden uppnår betydande förbättringar när det gäller att generera fotorealistiska bilder som är betingade av textbeskrivningar.
Stack-GAN REF lades fram med iscensatta generativa kontrariska nätverk som genererar låg upplösning i scenen-I GAN och syntetiserar högupplösta detaljer i scenen-II GAN.
1,277,217
StackGAN: Text to Photo-Realistic Image Synthesis with Stacked Generative Adversarial Networks
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
496
Abstract-I detta brev, prestanda icke-ortogonal multipel åtkomst (NOMA) undersöks i en cellulär nedlänk scenario med slumpmässigt utplacerade användare. De utvecklade analysresultaten visar att NOMA kan uppnå en överlägsen prestanda när det gäller ergoda summor, men NOMA:s avbrottsprestanda beror kritiskt på valet av användarnas riktade datahastigheter och tilldelade effekt. I synnerhet kan ett felaktigt val av måldatahastighet och tilldelad effekt leda till en situation där användarens sannolikhet för avbrott alltid är en, dvs. användarens riktade servicekvalitet aldrig kommer att uppnås.
Ding m.fl. REF utvärderade NOMA:s prestanda med slumpmässigt utplacerade användare.
4,764,988
On the Performance of Non-Orthogonal Multiple Access in 5G Systems with Randomly Deployed Users
{'venue': 'IEEE Signal Processing Letters', 'journal': 'IEEE Signal Processing Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
497
Vi studerar möjligheten att använda crowdsourcing metoder för att förvärva språkkorpora för användning i naturligt språk bearbetningssystem. Särskilt undersöker vi empiriskt tre metoder för att framkalla meningar i naturligt språk som motsvarar en given semantisk form. Metoderna förmedlar ramsemantik till trängselarbetare med hjälp av meningar, scenarier och listbaserade beskrivningar. Vi diskuterar olika resultatmått i crowdsourcing-processen och analyserar det samlade språkets semantiska korrekthet, naturlighet och fördomar. Vi lyfter fram forskningsutmaningar och riktningar vid tillämpning av dessa metoder för att förvärva korpora för naturligt språkbehandlingsapplikationer.
REF föreslog metoder för att förvärva corpora för NLP-system med semantiska former som utsäde, och för att analysera kvaliteten på den insamlade corpora.
7,579,888
Crowdsourcing the acquisition of natural language corpora: Methods and observations
{'venue': '2012 IEEE Spoken Language Technology Workshop (SLT)', 'journal': '2012 IEEE Spoken Language Technology Workshop (SLT)', 'mag_field_of_study': ['Computer Science']}
498
Vi visar att relationsextraktion kan reduceras till att svara på enkla frågor om läsförståelse, genom att koppla en eller flera frågor på ett naturligt språk till varje relations kortplats. Denna minskning har flera fördelar: vi kan (1) lära sig relationsextraktion modeller genom att utöka de senaste neurala läsförståelse tekniker, (2) bygga mycket stora träningsset för dessa modeller genom att kombinera relationsspecifika crowd-sourced frågor med avlägsen övervakning, och även (3) göra noll-shot lärande genom att extrahera nya relationstyper som endast specificeras vid test-tid, för vilka vi inte har några märkta utbildningsexempel. Experiment på en Wikipedia slot-fyllning uppgift visar att metoden kan generalisera till nya frågor för kända relationstyper med hög noggrannhet, och att noll-shot generalisering till osynliga relationstyper är möjligt, på lägre noggrannhetsnivåer, sätta ribban för framtida arbete på denna uppgift.
REF visade att en relaterad och kompletterande uppgift, utvinning av enhet/attributförhållande, kan reduceras till ett problem med svar på frågor.
793,385
Zero-Shot Relation Extraction via Reading Comprehension
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
499
Ett stabilt konstruktionsflöde måste fånga upp konstruktioner på väldefinierade abstraktionsnivåer och gå vidare mot ett effektivt genomförande. De kritiska besluten omfattar systemets arkitektur, som kommer att utföra de beräknings- och kommunikationsuppgifter som är förknippade med designens övergripande specifikation. Att förstå applikationsdomänen är viktigt för att säkerställa en effektiv användning av designflödet. Idag saknar designkedjan tillräckligt stöd. De flesta formgivare på systemnivå använder en samling verktyg som inte är kopplade till varandra. Implementeringen fortsätter sedan med informella tekniker som involverar många mänskliga-språksinteraktioner som skapar onödiga och oönskade iterationer bland grupper av designers i olika företag eller olika divisioner. Dessa grupper har föga förståelse för sina respektive kunskapsområden. Utvecklare kan därför inte vara säkra på att dessa verktyg, kopplade genom manuell eller empirisk översättning av mellanformat, kommer att bevara designens semantik. Denna osäkerhet leder ofta till fel som är svåra att identifiera och felsöka. Flytten mot programmerbara plattformar förskjuter designimplementeringsuppgiften mot inbäddad programvarudesign. När inbäddad programvara når den komplexitet som är typisk för dagens design ökar risken dramatiskt för att programvaran inte kommer att fungera korrekt. Denna risk beror främst på bristfälliga designmetoder och ömtåliga programvarusystemarkitekturer, som beror på att funktionaliteten växer över ett befintligt genomförande som kan vara ganska gammalt och odokumenterat. Metropolis-projektet syftar till att utveckla en enhetlig ram som kan hantera dessa utmaningar. Vi designade Metropolis för att tillhandahålla en infrastruktur baserad på en modell med exakt semantik som är tillräckligt allmän för att stödja befintliga beräkningsmodeller 1 och rymma nya. Denna metamodell kan stödja inte bara funktionalitet fånga och analys, men också arkitektur beskrivning och kartläggning av funktionalitet till arkitektoniska element. Metropolis använder ett logiskt språk för att fånga icke-funktionella och förklarande begränsningar. Eftersom modellen har en exakt semantik kan den förutom simulering stödja flera syntes- och formella analysverktyg. Den första designaktiviteten som Metropolis stödjer, kommunikationen av design intention och resultat, fokuserar på samspelet mellan människor som arbetar på olika abstraktionsnivåer och bland människor som arbetar samtidigt på samma abstraktionsnivå. Metamodellen innehåller begränsningar som representerar abstrakta krav som ännu inte implementerats eller antas vara uppfyllda av resten av systemet och dess miljö. Metropolis bygger på en metamodell med formella semantik som utvecklare kan använda för att fånga design, och ger en miljö för komplex design av elektroniska system som stöder simulering, formell analys och syntes.
Denna osäkerhet kan resultera i fel som är svåra att identifiera och felsöka REF.
206,446,849
Metropolis: an integrated electronic system design environment
{'venue': 'IEEE Computer', 'journal': 'IEEE Computer', 'mag_field_of_study': ['Computer Science']}
500
Vi föreslår en praktisk metod för felprognoser för företag som inte spårar felrelaterade data. Specifikt undersöker vi tillämpligheten av crosscompany (CC) data för att bygga lokaliserade fel prediktorer med hjälp av statiska kodfunktioner. För det första analyserar vi villkoren, där CC-data kan användas som det är. Dessa förhållanden visar sig vara ganska få. Sedan tillämpar vi principer för analogt lärande (dvs. närmaste granne (NN) filtrering) till CC-data, för att finjustera dessa modeller för lokalisering. Vi jämför prestandan hos dessa modeller med prestandan hos defekt prediktorer som lärts från uppgifter inom företaget (WC). Som förväntat observerar vi att de felprediktorer som man lärt sig från WC-data överträffar dem som man lärt sig från CC-data. Men våra analyser ger också felprediktorer från NN-filtrerade CC-data, med prestanda nära, men ändå inte bättre än, WC-data. Därför gör vi en slutlig analys för att bestämma det minsta antalet lokala felrapporter för att lära WC fel prediktorer. Vi visar i detta dokument att det minsta antal dataprover som krävs för att bygga effektiva felprediktorer kan vara ganska litet och kan samlas in snabbt inom några månader. För företag som inte har några lokala defekter rekommenderar vi därför en tvåfasmetod som gör det möjligt för dem att omedelbart använda felförutsägelseprocessen. I första fasen bör företagen använda
Turhan m.fl. REF undersökte tillämpligheten av CC data för att bygga lokaliserade fel prediktorer med hjälp av 10 projekt som samlats in från två olika företag, inklusive NASA och SOFTLAB. Och de har föreslagit en närmaste granne (NN) filter för att välja CC-data.
10,482,384
On the relative value of cross-company and within-company data for defect prediction
{'venue': 'Empirical Software Engineering', 'journal': 'Empirical Software Engineering', 'mag_field_of_study': ['Computer Science']}
501
Abstrakt. Vi introducerar en generisk algoritmisk teknik och tillämpar den på beslut och räkna versioner av graffärgning. Vår strategi bygger på följande idé: antingen har en graf fina (ur algoritmisk synvinkel) egenskaper som gör att en enkel rekursiv procedur för att hitta lösningen snabbt, eller vägen bredd på grafen är liten, som i sin tur kan användas för att hitta lösningen genom dynamisk programmering. Genom att använda denna teknik får vi de snabbaste kända exakta algoritmer - kör i tid O (1.7272 n ) för att avgöra om en graf är 4-färg och -löpning i tiden O (1.6262 n ) och O (1.9464 n ) för att räkna antalet k-färgningar för k = 3 respektive 4.
Fomin m.fl. visade en algoritm för grafen 4-färgning problem med körtid O (1.7272 n ) genom att använda sökvägen nedbrytning REF.
14,896,965
Improved Exact Algorithms for Counting 3- and 4-Colorings
{'venue': 'COCOON', 'journal': None, 'mag_field_of_study': ['Computer Science']}
502
Olika trådlösa nätverk har gjort de omgivande radiofrekvenssignalerna runt om i världen. Trådlös information och kraftöverföring (WIPT) gör det möjligt för enheterna att återvinna energi från dessa omgivande radiofrekvenssignaler och processinformation samtidigt. I detta dokument utvecklar vi ett WIPT-protokoll i tvåvägs förstärka-och-framåt reläkanaler, där två källor utbyter information via en energi skörd relä nod. Relänoden samlar energi från den mottagna signalen och använder den som överföringskraft för att vidarebefordra den mottagna signalen. Vi härleder analytiskt de exakta uttrycken för avbrottsannolikhet, ergodisk kapacitet och den ändliga-SNR mångfald multiplexing kompromiss (DMT). Dessutom utvecklas sedan de snäva slutna övre och nedre gränserna för avbrottssannolikheten och ergodisk kapacitet. Dessutom utvärderas och analyseras effekten av effektdelningsförhållandet. Slutligen visar vi att jämfört med det icke-kooperativa återutläggningssystemet är det föreslagna protokollet en grön lösning för att erbjuda högre överföringshastighet och mer tillförlitlig kommunikation utan att förbruka ytterligare resurser.
Som i OWR-protokollet analyseras avbrottsannolikheten och ergodisk kapacitet för AF-TWR-protokollet med användning av PS-SWIPT REF.
3,812,937
Wireless information and power transfer in two-way amplify-and-forward relaying channels
{'venue': '2014 IEEE Global Conference on Signal and Information Processing (GlobalSIP)', 'journal': '2014 IEEE Global Conference on Signal and Information Processing (GlobalSIP)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
503
Nyligen har mycket djupa konvolutionella neurala nätverk (CNN) visat enastående prestanda i objektigenkänning och har också varit det första valet för tät klassificering problem såsom semantisk segmentering. Emellertid, upprepade subsampling operationer som pooling eller convolution striding i djupa CNNs leder till en betydande minskning av den ursprungliga bildupplösningen. Här presenterar vi RafineNet, ett generiskt multi-path förfining nätverk som explicit utnyttjar all information som finns tillgänglig längs down-sampling processen för att möjliggöra högupplöst förutsägelse med långdistans resterande anslutningar. På så sätt kan de djupare skikten som fångar upp semantiska funktioner på hög nivå förfinas direkt med hjälp av finkorniga funktioner från tidigare konvolutioner. De enskilda komponenterna i RafineNet använder restanslutningar efter identitetskartläggningen, vilket möjliggör effektiv end-to-end utbildning. Dessutom introducerar vi kedjad resterande pooling, som fångar rika bakgrundssammanhang på ett effektivt sätt. Vi utför omfattande experiment och sätter nya toppmoderna resultat på sju offentliga datauppsättningar. I synnerhet uppnår vi en skärningspunkt-över-union poäng på 83,4 på den utmanande PASCAL VOC 2012 dataset, vilket är det bästa rapporterade resultatet hittills.
I REF är det multi-path förfining nätverket utvecklat för att extrahera all information som finns tillgänglig längs nedsamplingsprocessen för att möjliggöra högupplöst förutsägelse med hjälp av långdistans restanslutningar.
5,696,978
RefineNet: Multi-path Refinement Networks for High-Resolution Semantic Segmentation
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
504
Abstract-Cellular operatörer förtätar kontinuerligt sina nät för att klara den ständigt ökande efterfrågan på kapacitet. Dessutom planeras en extrem förtätningsfas för cellulära nätverk för att uppfylla de ambitiösa femte generationens (5G) prestandakrav. Nätverkens förtätning förbättrar spektrumutnyttjandet och nätkapaciteten genom att minska basstationers (BS) fotavtryck och återanvända samma spektrum oftare över den rumsliga domänen. Nätets förtätning ökar dock också överlämningsgraden (HO), vilket kan minska kapacitetsvinsterna för mobila användare på grund av förseningar i HO. I mycket täta 5G cellulära nätverk, HO förseningar kan neutralisera eller till och med förneka de vinster som erbjuds av nätverket förtätning. I detta dokument presenterar vi ett analytiskt paradigm, baserat på stokastisk geometri, för att kvantifiera effekten av HO-fördröjning på den genomsnittliga användarhastigheten i cellulära nätverk. I detta syfte föreslår vi ett flexibelt överlämningssystem för att minska HO-fördröjningen vid mycket täta cellulära nät. Detta system gör det möjligt att hoppa över HO-proceduren med vissa BS längs användarnas banor. Resultatutvärderingen och testerna av detta system för endast enstaka HO-hoppning visar på avsevärda vinster i många praktiska scenarier.
Arshad m.fl. REF studerade överlämningsproblemet i 5G-nätverk baserat på stokastisk geometriteori.
13,152,631
Handover management in dense cellular networks: A stochastic geometry approach
{'venue': '2016 IEEE International Conference on Communications (ICC)', 'journal': '2016 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']}
505
Bayesian modeller erbjuder stor flexibilitet för kluster applikationer-bayesian nonparametrics kan användas för modellering oändliga blandningar, och hierarkiska Bayesian modeller kan användas för att dela kluster över flera datamängder. För det mesta saknas sådan flexibilitet i klassiska klustermetoder som k-medel. I det här dokumentet går vi igenom k-means klusteralgoritmen från en icke-parametrisk Bayesisk synvinkel. Inspirerad av den asymptotiska kopplingen mellan k-means och blandningar av Gaussians, visar vi att en Gibbs provtagningsalgoritm för Dirichlet process blandning närmar sig en hård kluster algoritm i gränsen, och vidare att den resulterande algoritmen monotoniskt minimerar en elegant underliggande k-meansliknande kluster mål som inkluderar en straff för antalet kluster. Vi generaliserar denna analys till fallet med att samla flera datauppsättningar genom ett liknande asymptotiskt argument med den hierarkiska Dirichlet processen. Vi diskuterar också ytterligare förlängningar som belyser fördelarna med vår analys: i) en spektral avslappning som involverar tröskeled eigenvectors, och ii) en normaliserad skär graf kluster algoritm som inte fixerar antalet kluster i grafen.
I kontrast, D-Means och SD-Means härleda denna förmåga från en Bayesian nonparametric modell, på liknande sätt som DP-Means algoritm REF.
12,274,243
Revisiting k-means: New Algorithms via Bayesian Nonparametrics
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
506