src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Vi lär oss rika naturliga ljud representationer genom att dra nytta av stora mängder omärkta ljuddata som samlas in i det vilda. Vi utnyttjar den naturliga synkroniseringen mellan syn och ljud för att lära oss en akustisk representation med hjälp av två miljoner omärkta videor. Omärkt video har fördelen att den kan förvärvas ekonomiskt på massiva skalor, men innehåller användbara signaler om naturligt ljud. Vi föreslår ett student-lärare utbildningsförfarande som överför diskriminerande visuell kunskap från väletablerade visuella igenkänningsmodeller till ljudmodaliteten med omärkt video som bro. Vår ljudrepresentation ger betydande prestandaförbättringar jämfört med de senaste resultaten på standardriktmärken för akustisk scen/objektklassificering. Visualiseringar tyder på att semantik på hög nivå automatiskt dyker upp i ljudnätverket, även om det tränas utan marksanningsetiketter.
SoundNet REF, till exempel, tillämpar en student-lärare utbildning förfarande för att överföra visuell kunskap från ett stort antal videor till ljud modalitet.
2,915,490
SoundNet: Learning Sound Representations from Unlabeled Video
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,624
Utmaningar när det gäller att organisera improviserade aktiviteter är de krav som ställs på att i rätt tid göra inbjudningar i enlighet med de platser där de sökande deltar och den sociala relationen mellan dem. Det är önskvärt att hitta en grupp deltagare nära en samlingsplats och se till att de utvalda deltagarna har en god social relation för att skapa en god atmosfär i verksamheten. Därför föreslår detta dokument Socio-Spatial Group Query (SSGQ) att välja en grupp av närliggande deltagare med snäva sociala relationer. Effektiv bearbetning av SSGQ är mycket utmanande på grund av avvägningen inom de rumsliga och sociala områdena. Vi visar att problemet är NP-hård via ett bevis och designa en effektiv algoritm SSGSelect, vilket inkluderar effektiva beskärningstekniker för att minska körtiden för att hitta den optimala lösningen. Vi föreslår också en ny indexstruktur, Social R-Tree för att ytterligare förbättra effektiviteten. Användarstudie och experimentella resultat visar att SSGSselect avsevärt överträffar manuell samordning i både lösningskvalitet och effektivitet.
I REF, Yang et al. utvecklade ett hybridindex kallat Social R-Tree för att lösa problemet med socio-spatial gruppfråga.
15,389,734
On socio-spatial group query for location-based social networks
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,625
Vi utforskar en nyligen föreslagen Variational Dropout teknik som gav en elegant Bayesian tolkning till Gaussian Dropout. Vi utökar Variational Dropout till fallet när dropout hastigheter är obundna, föreslå ett sätt att minska variansen av gradient uppskattningen och rapportera första experimentella resultat med individuella dropout hastigheter per vikt. Intressant nog leder det till extremt glesa lösningar både i fullt sammankopplade och konvolutionella skikt. Denna effekt liknar den automatiska relevansbestämningseffekten i empiriska Bayes men har ett antal fördelar. Vi minskar antalet parametrar upp till 280 gånger på LeNet-arkitekturer och upp till 68 gånger på VGG-liknande nätverk med försumbar noggrannhet.
REF visar att variationsdroppar som tillåter oändliga varianser resulterar i gleshet, vars effekt liknar automatisk relevansbestämning (ARD).
18,201,582
Variational Dropout Sparsifies Deep Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,626
Ett av de mest utmanande problemen vid utvinning av genuttrycksdata är att identifiera hur uttrycket för en viss gen påverkar uttrycket av andra gener. För att belysa sambanden mellan generna, en association regel mining (ARM) metod har tillämpats på microarray genuttrycksdata. En konventionell ARM-metod har dock en gräns för att extrahera tidsmässiga beroenden mellan genuttryck, även om tidsinformationen är nödvändig för att upptäcka underliggande regleringsmekanismer i biologiska vägar. I detta dokument föreslår vi en ny metod, kallad timlig föreningsregel gruvdrift (TARM), som kan extrahera tidsmässiga beroenden bland relaterade gener. En temporal association regel har formen [gen A↑, gen B↓] → (7 min) [gen C↑], som representerar den höga uttrycksnivån av gen A och betydande repression av gen B följt av betydande uttryck av gen C efter 7 minuter. Den föreslagna TARM-metoden testas med Saccharomyces cerevisiae cellcycle time-series microarray genuttrycksdata. I TARM:s parametermonteringsfas har den monterade parameteruppsättningen [tröskel = ± 0,8, stöd för ≥ 3 transaktioner, konfidensgrad ≥ 90%] med den bästa precisionspoängen för KEGG-cellcykelbanan valts för regelbrytningsfasen. Med den monterade parametern uppsättning, antal temporal association regler med fem transkriptionella tidsfördröjningar (0, 7, 14, 21, 28 minuter) extraheras från genuttryck data av 799 gener, som är föridentifierade cellcykeln relevanta gener. Från de extraherade tidsmässiga föreningsreglerna, associerade gener, som spelar samma roll biologiska processer inom kort transkriptionell tidsfördröjning och vissa tidsmässiga beroenden mellan gener med specifika biologiska processer identifieras. I detta arbete föreslog vi TARM, som är en tillämpad form av konventionell ARM. TARM visade högre precision än Dynamic Bayesian nätverk och Bayesian nätverk. Fördelar med TARM är att det talar om storleken på transkriptionell tidsfördröjning mellan associerade gener, aktivering och hämningsförhållande mellan gener, och uppsättningar av co-regulatorer.
Återigen användes en Apriori-baserad metod i REF för att upptäcka tidsmässiga associationer från genuttrycksdata.
2,870,709
Identification of temporal association rules from time-series microarray data sets
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Biology']}
82,627
Vi presenterar utformningen, genomförandet och utvärderingen av INSIGNIA, en IP-baserad tjänstekvalitet som stöder adaptiva tjänster i mobila ad hoc-nät. Ramen bygger på en in-band signalerings- och soft-state resurshanteringsmetod som är väl lämpad för att stödja rörlighet och end-to-end-kvalitet av tjänster i mycket dynamiska miljöer där nätet topologi, nodanslutning, och end-to-end-kvalitet av tjänsten varierar tidsmässigt. Arkitekturiskt är INSIGNIA utformat för att stödja snabb bokning, restaurering och end-to-end anpassning baserad på den inneboende flexibilitet och robusthet och skalbarhet som finns i IP-nätverk. Vi utvärderar ramverket, med särskild uppmärksamhet på prestandan hos signalsystemet i bandet, vilket hjälper till att motverka tidsvarierande nätverksdynamik till stöd för tillhandahållandet av adaptiva tjänster. Våra resultat visar fördelarna med vårt ramverk under olika mobilitets-, trafik- och kanalförhållanden. Nyckelord: tjänsternas kvalitet; mobila ad hoc-nät; adaptiva tjänster; signalering i bandet; förvaltning av mjuka statliga resurser.
I REF hanterar ett signalsystem i band per flöde "soft-state" till stöd för flödesreservation (via humle-by-hop-inträdeskontroll) och restaurering och end-to-end-flödesanpassning.
17,617,945
INSIGNIA: An IP-Based Quality of Service Framework for Mobile ad Hoc Networks
{'venue': 'Journal of Parallel and Distributed Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,628
Vi presenterar Tor, en kretsbaserad anonym kommunikationstjänst med låg latens. Detta andra generationens Onion Routing-system adresserar begränsningar i den ursprungliga designen genom att lägga till perfekt framåt sekretess, trängselkontroll, katalogservrar, integritetskontroll, konfigurerbara utgångspolicyer, och en praktisk design för platsdolda tjänster via mötesplatser. Tor fungerar på det verkliga Internet, kräver inga särskilda privilegier eller ändringar i kärnan, kräver lite synkronisering eller samordning mellan noder, och ger en rimlig avvägning mellan anonymitet, användbarhet och effektivitet. Vi beskriver kortfattat våra erfarenheter med ett internationellt nätverk med mer än 30 noder. Vi avslutar med en lista över öppna problem i anonym kommunikation. Onion Routing är ett distribuerat overlay-nätverk utformat för att anonymisera TCP-baserade program som webbsurfning, säkert skal och snabbmeddelanden. Kunderna väljer en väg genom nätverket och bygger en krets, där varje nod (eller "onion router" eller "OR") i vägen känner sin föregångare och efterträdare, men inga andra noder i kretsen. Trafiken flödar ner genom kretsen i celler med fast storlek, som är olindade av en symmetrisk nyckel vid varje nod (liksom lagren av en lök) och återsänds nedströms. Projektet Onion Routing publicerade flera design- och analyspapper [27, 41, 48, 49]. Medan ett brett område Onion Routing nätverk var utplacerad kort, var det enda långvariga offentliga genomförandet ett bräckligt bevis på koncept som kördes på en enda maskin. Även denna enkla installation bearbetade anslutningar från över sextio tusen olika IP-adresser från hela världen i en takt av omkring femtio tusen per dag. Men många kritiska design- och installationsfrågor löstes aldrig, och designen har inte uppdaterats på flera år. Här beskriver vi Tor, ett protokoll för asynkrona, löst federerade lök routers som ger följande förbättringar över den gamla Onion Routing design: Perfekt framåt sekretess: I den ursprungliga Onion Routing design, en enda fientlig nod kunde spela in trafik och senare kompromissa på varandra följande noder i kretsen och tvinga dem att dekryptera den. I stället för att använda en enda multiplicera krypterad datastruktur (en lök) för att lägga varje krets, använder Tor nu en inkrementell eller telescoping path-building design, där initiativtagaren förhandlar session nycklar med varje på varandra följande hopp i kretsen. När dessa nycklar har tagits bort, senare komprometterade noder kan inte dekryptera gammal trafik. Som en sidovinst, lök replay upptäckt är inte längre nödvändigt, och processen för att bygga kretsar är mer tillförlitlig, eftersom initiativtagaren vet när ett hopp misslyckas och sedan kan försöka utvidga till en ny nod. Separation av "protokoll rengöring" från anonymitet: Onion Routing ursprungligen krävde en separat "ansökan proxy" för varje stödd ansökan protokoll-av vilka de flesta aldrig skrevs, så många program aldrig stöds. Tor använder standard- och nästan allestädes närvarande SOCKS [32] proxygränssnitt, vilket gör att vi kan stödja de flesta TCP-baserade program utan ändring. Tor förlitar sig nu på filtreringen funktioner integritetshöjande program-nivå proxy såsom Privoxy [39], utan att försöka duplicera dessa funktioner själv. Ingen blandning, stoppning eller trafikformning (ännu): Onion Routing ursprungligen kallas för batching och omordning celler när de kom, antas stoppning mellan de yttersta randområdena, och i senare konstruktioner lagt stoppning mellan lök Proxies (användare) och Ors [27, 41]. Man diskuterade kompromisser mellan stoppningsskydd och kostnader, och algoritmer för trafikformning teoretiserades [49] för att ge god säkerhet utan dyr stoppning, men inga konkreta stoppningssystem föreslogs. Ny forskning [1] och erfarenheter av utbyggnad [4] tyder på att denna resursanvändningsnivå inte är praktisk eller ekonomisk; och även full länk stoppning är fortfarande sårbar [33]. Således, tills vi har en beprövad och bekväm design för trafikformning eller låg-latent blandning som förbättrar anonymitet mot en realistisk motståndare, vi utelämnar dessa strategier. Många TCP strömmar kan dela en krets: Onion Routing ursprungligen byggt en separat krets för varje ansökan nivå begäran, men detta krävde flera offentliga nyckeloperationer för varje begäran, och också utgjorde ett hot mot anonymitet från att bygga så många kretsar; se Avsnitt 9. Tor multi-
Tor REF, den mest populära low-latency anonymity system, är ett overlay nätverk av lök routrar.
43,887
Tor: The Second-Generation Onion Router
{'venue': 'USENIX Security Symposium', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,629
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Ren och al. REF förbättrade ytterligare Girshicks arbete och föreslog snabbare R-CNN och minskade beräkningstiden.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,630
Distribuerade Denial-of-Service (DDoS) attacker utgör ett stort hot mot datacenter, och många försvarsmekanismer har föreslagits för att upptäcka det. Å ena sidan kan många tjänster som används i datacenter lätt leda till motsvarande DDoS attacker. Å andra sidan, angripare ständigt ändra sina verktyg för att kringgå dessa befintliga mekanismer, och forskare i sin tur ändra sina metoder för att hantera nya attacker. DDoS mot datacenter blir alltså mer och mer komplext. I den här artikeln analyserar vi först korrelationsinformationen för flöden i datacenter. För det andra presenterar vi en effektiv detekteringsmetod baserad på CKNN (K-Nearest Neighbors trafikklassificering med korrelationsanalys) för att upptäcka DDoS-attacker. Metoden utnyttjar korrelationsinformation om utbildningsdata för att förbättra klassificeringsnoggrannheten och minska de omkostnader som orsakas av utbildningsdatans densitet. Med målet att lösa de enorma kostnaderna presenterar vi också en rutnätsbaserad metod som heter -Polling Method för att minska utbildningsdata som ingår i beräkningen. Slutligen utvärderar vi vår strategi med Internet trafik och datacenter trafik spår. Jämfört med de traditionella metoderna är vårt tillvägagångssätt bra på att upptäcka onormal trafik med hög effektivitet, låg kostnad och brett detektionsområde.
Korrelationsanalysen med k-nerest approach presenteras i REF.
7,767,139
Detecting DDoS attacks against data center with correlation analysis
{'venue': 'Comput. Commun.', 'journal': 'Comput. Commun.', 'mag_field_of_study': ['Computer Science']}
82,631
Abstrakt. Användare som vill övervaka distribuerade system föredrar ofta att ta bort systemets arkitektur, så att de direkt kan ange korrekta egenskaper på det globala systemets beteende. För att stödja denna abstraktion skulle en sammanställning av egenskaperna inte bara omfatta det typiska valet av övervakningsalgoritm, utan också organisationen av underskärmar över hela komponentnätverket. Befintliga metoder, som beaktas i samband med LTL-egenskaper över distribuerade system med en global klocka, inkluderar de s.k. orkestrering- och migreringsstrategierna. I orkestreringen tar en central övervakare emot händelserna från alla delsystem. I migreringsmetoden överför sig LTL-formler över delsystem för att samla in lokal information. Vi föreslår ett tredje sätt att organisera underskärmar: koreografi - där monitorer orniseras som ett träd över det distribuerade systemet, och varje barn matar mellanliggande resultat till sin förälder. Vi formaliserar detta tillvägagångssätt, bevisar dess korrekthet och sämsta resultat, och rapporterar om en empirisk undersökning som jämför de tre tillvägagångssätten när det gäller flera frågor om decentraliserad övervakning.
Colombo och Falcone REF föreslår ett nytt sätt att organisera monitorer som kallas koreografi, där monitorer är organiserade som ett träd över det distribuerade systemet, och varje barn matar mellanliggande resultat till sin förälder.
33,516,273
New Results - Organising LTL monitors over distributed systems with a global clock
{'venue': 'RV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,632
Kostnaden för storskalig datainsamling och annotering gör ofta tillämpningen av maskininlärningsalgoritmer på nya uppgifter eller datauppsättningar oöverkomligt dyrt. En metod som kringgår denna kostnad är utbildningsmodeller för syntetiska data där noteringar tillhandahålls automatiskt. Trots sin dragningskraft misslyckas sådana modeller ofta med att generalisera från syntetiska till verkliga bilder, vilket kräver domänanpassningsalgoritmer för att manipulera dessa modeller innan de framgångsrikt kan tillämpas. Befintliga metoder fokuserar antingen på att kartlägga representationer från en domän till en annan, eller på att lära sig att extrahera funktioner som är invarianta till den domän från vilken de extraherades. Men genom att enbart fokusera på att skapa en kartläggning eller en delad representation mellan de två domänerna, ignorerar de de enskilda egenskaperna hos varje domän. Vi hypothesize att explicit modellera vad som är unikt för varje domän kan förbättra en modells förmåga att extrahera domän-invarianta funktioner. Inspirerade av arbete med privat delad komponentanalys lär vi oss uttryckligen att extrahera bildrepresentationer som delas upp i två subrymder: en komponent som är privat till varje domän och en som delas över domäner. Vår modell är tränad att inte bara utföra den uppgift vi bryr oss om i källdomänen, utan också att använda den partitionerade representationen för att rekonstruera bilderna från båda domänerna. Vår nya arkitektur resulterar i en modell som överträffar state-of-the-art på en rad oövervakade domänanpassningsscenarier och dessutom producerar visualiseringar av de privata och delade representationer som möjliggör tolkning av domänanpassningsprocessen.
Bousmalis m.fl. I REF föreslogs ett separationsnätverk som lär sig att separera det latenta utrymmet i två komponenter, den ena privat till varje domän och den andra gemensamt mellan olika domäner.
2,127,515
Domain separation networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,633
Detta dokument behandlar effekterna av vertikal elasticitet för applikationer med dynamiska minneskrav när de körs på en virtualiserad miljö. Vertikal elasticitet är förmågan att skala upp och skala ner kapaciteten hos en virtuell maskin (VM). I synnerhet fokuserar vi på dynamisk minneshantering för att automatiskt passa den underliggande datorinfrastrukturen i körtiden till applikationen och därmed anpassa den virtuella datorns minnesstorlek till minnesförbrukningsmönstret i applikationen. Det beskrivs en arkitektur, tillsammans med en proof-of-concept implementation, som dynamiskt anpassar den virtuella datorns minnesstorlek för att förhindra thrashing och samtidigt minska överskottet av oanvända VM-minnen. För testfallet används ett syntetiskt riktmärke som reproducerar olika mönster som uppstår vid verkliga vetenskapliga tillämpningar. Resultaten visar att vertikal elasticitet, i form av dynamisk minneshantering, gör det möjligt att minska minnesöverprovisionering vid kontrollerad tillämpning prestanda straff.
Arbetet i REF presenterar vertikal elasticitet för applikationer med dynamiska minneskrav när de körs på en generaliserad virtualiserad miljö.
2,687,071
Elastic Memory Management of Virtualized Infrastructures for Applications with Dynamic Memory Requirements
{'venue': 'ICCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,634
Abstract-Vi undersöker problemet med distribuerat kanalval med hjälp av en spel-teoretisk stokastisk inlärningslösning i ett opportunistiskt spektrumaccess (OSA) system där statistiken över kanaltillgänglighet och antalet sekundära användare är apriori okänt. Vi formulerar kanalen urvalsproblem som ett spel som har visat sig vara ett exakt potentiellt spel. Men på grund av bristen på information om andra användare och begränsningen att spektrumet är tidsvariation med okänd tillgänglighet statistik, uppgiften att uppnå Nash jämvikt (NE) punkter i spelet är utmanande. För det första föreslår vi en genie-aid-algoritm för att uppnå NE-poäng under antagande av perfekt miljökunskap. Baserat på detta undersöker vi det uppnåeliga resultatet av spelet när det gäller systemgenomströmning och rättvisa. Sedan föreslår vi en stokastisk inlärningsautomat (SLA) baserad kanalvalalgoritm, med vilken de sekundära användarna lär sig av sin individuella action-reward historia och justera sina beteenden mot en NE-punkt. Den föreslagna inlärningsalgoritmen kräver varken informationsutbyte eller förhandsinformation om statistiken över kanaltillgänglighet och antalet sekundära användare. Simuleringsresultat visar att den SLA-baserade inlärningsalgoritmen uppnår hög systemgenomströmning med god rättvisa. Index Terms-kognitiva radionätverk, opportunistisk spektrumåtkomst, distribuerat kanalval, exakt potentiellt spel, stokastisk inlärningsautomata.
Författarna i REF undersöker problemet med distribuerat kanalval med hjälp av en spel-teoretisk stokastisk inlärningslösning i en opportunistisk spektrumåtkomst och föreslår en genie-stödd algoritm för att uppnå NE-poäng under antagande av perfekt miljökunskap.
2,153,482
Opportunistic Spectrum Access in Unknown Dynamic Environment: A Game-Theoretic Stochastic Learning Solution
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science']}
82,635
Skeleton baserad handlingsigenkänning skiljer mänskliga handlingar med hjälp av banor i skelett leder, som ger en mycket bra representation för att beskriva åtgärder. Med tanke på att återkommande neurala nätverk (RNN) med Long Short-Term Memory (LSTM) kan lära sig funktionsrepresentationer och modellera långsiktiga tidsmässiga beroenden automatiskt, föreslår vi en endto-end fullt ansluten djup LSTM-nätverk för skelettbaserad åtgärdsigenkänning. Inspirerade av observationen att samtidiga förekomster av lederna i sig kännetecknar mänskliga handlingar, tar vi skelettet som ingång vid varje tid slits och införa en ny legaliseringsschema för att lära sig co-occurence egenskaper skelett leder. För att effektivt träna det djupa LSTM-nätverket föreslår vi en ny avhoppsalgoritm som samtidigt fungerar på portarna, cellerna och utgångssvaren hos LSTM-neuronerna. Experimentella resultat av tre datauppsättningar för erkännande av mänskliga åtgärder visar konsekvent hur effektiv den föreslagna modellen är.
Zhu m.fl. REF lade till en mixednorm legalization term till en RNN kostnadsfunktion för att lära sig co-occurence egenskaper skelett leder för åtgärd klassificering.
8,172,563
Co-occurrence Feature Learning for Skeleton based Action Recognition using Regularized Deep LSTM Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,636
I detta dokument presenteras en multisensor ensemble klassificerare (MSEC) för fysisk aktivitet (PA) mönsterigenkänning av människor. Den MSEC, utvecklad för en bärbar multi-sensor integrera mätsystem (IMS), kombinerar flera klassificeringar baserade på olika sensorfunktionsuppsättningar för att förbättra noggrannheten av PA typ identifikation.Experimentell utvärdering av 56 ämnen har visat att MSEC är effektivare vid bedömning av aktiviteter av varierande intensitet än de traditionella homogena klassifierare. Den kan korrekt känna igen 6 PA-typer med en noggrannhet av 93.50%, vilket är 7% högre än den icke- sensemble stöd vektor maskin metod. Dessutom är MSEC effektivt när det gäller att minska den enskilda variabiliteten i aktivitetsigenkänningen.
Mo m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF utvecklade en ensembleklassare baserad på bärbara multisensorer för igenkänning av fysiska aktivitetsmönster, som kombinerade flera klassificeringar baserade på olika sensorfunktionsuppsättningar för att förbättra noggrannheten hos identifiering av fysisk aktivitetstyp.
41,231,868
Multi-Sensor Ensemble Classifier for Activity Recognition
{'venue': None, 'journal': 'Journal of Software Engineering and Applications', 'mag_field_of_study': ['Computer Science']}
82,637
En av Android främsta försvarsmekanismer mot skadliga appar är en riskkommunikationsmekanism som, innan en användare installerar en app, varnar användaren om de rättigheter appen kräver, lita på att användaren kommer att fatta rätt beslut. Detta tillvägagångssätt har visat sig vara ineffektivt eftersom det presenterar riskinformationen för varje app på ett "stand-alone" sätt och på ett sätt som kräver för mycket teknisk kunskap och tid för att destillera användbar information. Vi introducerar begreppet risk scoring och riskrankning för Android-appar, för att förbättra riskkommunikation för Android-appar, och identifiera tre desiderata för en effektiv risk scoring system. Vi föreslår att man använder probabilistiska generativa modeller för riskklassificeringssystem och identifierar flera sådana modeller, allt från enkla Naive Bayes till avancerade hierarkiska blandningsmodeller. Experimentella resultat utförda med hjälp av verkliga dataset visar att probabilistiska allmänna modeller avsevärt överträffar befintliga metoder, och att Naive Bayes modeller ger en lovande risk scoring strategi.
I REF använder författarna probabilistiska generativa modeller för att utvärdera den potentiella risken för analyserade tillämpningar.
3,330,361
Using probabilistic generative models for ranking risks of Android apps
{'venue': "CCS '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,638
Vi betraktar problemet med att lära sig objektarrangemang i en 3D-scen. Den viktigaste idén här är att lära sig hur objekt relaterar till mänskliga poser baserat på deras råd, användarvänlighet och nåbarhet. I motsats till modellering objekt-objekt förhållanden, modellera mänskliga-objekt förhållanden skalar linjärt i antalet objekt. Vi utformar lämpliga densitetsfunktioner baserat på 3D rumsliga funktioner för att fånga detta. Vi lär oss fördelningen av mänskliga poser i en scen med hjälp av en variant av Dirichlet process blandning modell som gör det möjligt att dela den densitet funktionsparametrar över samma objekttyper. Då kan vi resonera om arrangemangen av objekten i rummet baserat på dessa meningsfulla mänskliga poser. I våra omfattande experiment på 20 olika rum med totalt 47 objekt förutspådde vår algoritm korrekta placeringar med ett genomsnittsfel på 1,6 meter från marksanning. Genom att arrangera fem verkliga scener fick den ett poäng på 4,3/5 jämfört med 3,7 för den bästa baslinjemetoden.
Nyligen introducerade några forskare virtuella mänskliga modeller för att lära sig mänskliga objektrelationer (Affordances) i 3D scener REF.
14,005,781
Learning Object Arrangements in 3D Scenes using Human Context
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,639
Vi beskriver den gemensamma uppgiften SemEval-2010 om "Länkevenemang och deras deltagare i Discourse". Denna uppgift är en förlängning till den klassiska semantiska rollbeteckningsuppgiften. Medan semantisk rollmärkning traditionellt ses som en meningsuppgift, interagerar lokala semantiska argumentstrukturer tydligt med varandra i ett större sammanhang, t.ex. genom att dela referenser till specifika diskursenheter eller evenemang. I den gemensamma uppgiften tittade vi på en särskild aspekt av sambanden mellan argumentstrukturer, nämligen att koppla lokalt oinstanterade roller till deras medreferenter i det bredare diskurssammanhanget (om sådana medreferenter finns). Denna uppgift är potentiellt fördelaktig för ett antal NLP-program, såsom informationsutdrag, frågesvar eller textsammanfattning.
Ett aktuellt exempel på sådant arbete är Semeval 2010 Task 10 Ref, som syftar till att länka samman evenemang och deras deltagare i diskursen.
12,623,074
SemEval-2010 Task 10: Linking Events and Their Participants in Discourse
{'venue': 'Workshop on Semantic Evaluations (SemEval)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,640
Abstract-Cooperative Sensing, en nyckel som möjliggör teknik för dynamisk spektrumaccess, är sårbar för olika sensingtargeted attacker, såsom den primära användaren emulering eller spektrumavkänning datafalsifiering. Dessa attacker kan lätt störa den primära signaldetekteringsprocessen, vilket förlamar driften av dynamisk spektrumåtkomst. Även om sådana avkännande riktade attacker lätt kan inledas av en angripare, är det mycket svårt att utforma ett robust samarbetssystem för spektrumavkänning på grund av de praktiska begränsningar som finns i spektrumavkänningen, särskilt den delade/öppna karaktären hos det trådlösa mediet och den oförutsägbara signalutbredningen. I detta dokument utvecklar vi ett effektivt, men ändå enkelt ramverk för att upptäcka attacker, kallat IRIS (robust cooperatIve sensation via iteRatIve State estimation), som säkrar den etablerade detektionsprocessen genom att kontrollera överensstämmelsen mellan analysrapporterna via skattningen av systemtillstånd, nämligen den primära användarens sändningseffekt och banförlustexponent. Den viktigaste insikten bakom utformningen av IRIS är att analysresultaten styrs av nätverkets topologi och lagen om signalutbredning, som inte lätt kan äventyras av en angripare. Följaktligen måste analysrapporterna visa att de inbördes är konsekventa när det gäller att uppskatta systemtillstånd. Våra analys- och simuleringsresultat visar att IRIS, genom att utföra konsekvenskontroller, ger hög attackdetekteringsförmåga och bibehåller tillfredsställande prestanda vid uppskattning av systemets tillstånd även under mycket utmanande attackscenarier. På grundval av dessa observationer föreslår vi en ny regel för upptäckt av dominerande operatörer som ytterligare kan förbättra spektrumeffektiviteten. IRIS kan enkelt användas i infrastrukturbaserade kognitiva radionät, såsom IEEE 802.22 WRAN, med hanterbara omkostnader för bearbetning och kommunikation.
Min m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF föreslog att man skulle skydda detektionsprocessen genom att kontrollera överensstämmelsen mellan analysrapporterna och ta bort de onormala avkänningsrapporterna.
2,070,305
Robust cooperative sensing via state estimation in cognitive radio networks
{'venue': '2011 IEEE International Symposium on Dynamic Spectrum Access Networks (DySPAN)', 'journal': '2011 IEEE International Symposium on Dynamic Spectrum Access Networks (DySPAN)', 'mag_field_of_study': ['Computer Science']}
82,641
Differentiell integritet (DP) har blivit allmänt accepterad som en strikt definition av dataintegritet, med starkare integritetsgarantier än traditionella statistiska metoder. Nyligen genomförda studier har dock visat att för rimliga integritetsbudgetar, differentiell integritet avsevärt påverkar den förväntade nyttan. Många alternativa integritetsskyddsbegrepp som syftar till att avslappna DP har sedan dess föreslagits, i hopp om att skapa en bättre kompromiss mellan integritetsskydd och nytta. Vid CCS'13, Li et al. införde ramen för medlemskapets integritet, där de syftar till att skydda mot att medlemmar avslöjas av motståndare vars förkunskaper fångas upp av en familj av sannolikhetsfördelningar. Inom ramen för denna ram undersöker vi en avslappning av DP, genom att överväga tidigare distributioner som fångar upp mer rimliga mängder bakgrundskunskap. Vi visar att för olika sekretessbudgetar, DP kan användas för att uppnå medlemskap integritet för olika kontradiktoriska inställningar, vilket leder till en intressant kompromiss mellan integritetsgarantier och nytta. Vi omvärderar metoder för att släppa differentialt privat χ 2 - statistik i genom- omfattande föreningsstudier och visar att vi kan uppnå en högre nytta än i tidigare verk, samtidigt som man garanterar medlemskap integritet i en relevant kontradiktorisk miljö.
Genom att slappna av den förmodade motståndaren kunskap om data arbetet REF visar att nyttovinster i Genome-Wide Association Studies är uppnåeliga.
16,352,069
Differential Privacy with Bounded Priors: Reconciling Utility and Privacy in Genome-Wide Association Studies
{'venue': "CCS '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,642
Abstract-Recently har många städer runt om i världen bevittnat storskalig spridning av marksänd mobil-tv (TV) till fordon. Denna tjänst liknar kabel- eller satellit-TV redan i hemmet, och användarcentrerad interaktiv mobil Video-on-Demand (VoD) över urbana fordonsnätverk förväntas i själva verket. Att tillhandahålla denna nya tjänst med fokus på användaren Quality of Experience (QoE) är dock en stor utmaning. I detta dokument introduceras en QoE-driven användarcentrerad lösning för VoD-tjänster i urbana fordonsmiljöer (QUVoD). QUVoD bygger på en multihomed hierarkisk peer-to-peer (P2P) och vehicular ad-hoc nätverk (VANET) arkitektur. Fordon konstruerar en lågskikts VANET via trådlös åtkomst i Vehicular Environment gränssnitt; de bildar också en övre skikt P2P Chord överlagring på toppen av ett cellulärt nätverk via Fourth-Generation (4G) gränssnitt. En ny grupperingsbaserad lagringsstrategi som på ett enhetligt sätt distribuerar videosegmenten längs Chord-överlagringen föreslås, vilket minskar segmentet som söker trafik och samtidigt möjliggör lastbalansering. Ett nytt segment söker och multipat leveranssystem som uppnår hög uppslagshastighet framgång och mycket bra video data leverans effektivitet införs också, vilket uppnår hög uppslagshastighet framgång och mycket bra video data leverans effektivitet. Dessutom föreslås en ny spekulationsbaserad förhämtningsstrategi som analyserar användarnas interaktiva Index Terms-Peer-to-peer (P2P), Quality of Experience (QoE), user-centric Video-on-Demand (VoD), vehicular network.
En QoE-driven användarcentrerad lösning för video on demand-tjänster REF i urbana fordonsnätverksmiljöer införs, och hög QoE-servicenivå tillhandahålls till fordonspassagerare.
18,521,023
QoE-Driven User-Centric VoD Services in Urban Multihomed P2P-Based Vehicular Networks
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
82,643
Mycket djupa konvolutionella nätverk med hundratals eller fler skikt har lett till betydande minskningar av fel på konkurrenskraftiga riktmärken som ImageNet eller COCO uppgifter. Även om den oöverträffade expressiviteten hos de många djupa skikten kan vara mycket önskvärd vid provtillfället, kommer träning mycket djupa nätverk med sina egna utmaningar. Lutningarna kan försvinna, framflödet minskar ofta och träningstiden kan vara smärtsamt långsam även på moderna datorer. I detta dokument föreslår vi stokastiskt djup, ett utbildningsförfarande som gör det möjligt för det till synes motsägelsefulla upplägget att utbilda korta nät och få djupa nätverk. Vi börjar med mycket djupa nätverk men under träningen, för varje mini-batch, slumpmässigt släppa en delmängd av lager och kringgå dem med identitetsfunktionen. De resulterande nätverken är korta (i förväntan) under utbildning och djupt under testning. Utbildning Restuella nätverk med stokastiskt djup är övertygande enkelt att genomföra, men ändå effektivt. Vi visar att detta tillvägagångssätt på ett framgångsrikt sätt tar itu med utbildningssvårigheterna i de djupa nätverken och kompletterar de senaste framgångarna för Residual- och Highway Networks. Det minskar träningstiden avsevärt och förbättrar testfelen på nästan alla datamängder avsevärt (CIFAR-10, CIFAR-100, SVHN). Förvånansvärt nog, med stokastiskt djup kan vi öka djupet av kvarvarande nätverk även bortom 1200 lager och ändå ge meningsfulla förbättringar i testfel (4.91%) på CIFAR-10.
Stochastic djup REF släpper hela lager av kvarvarande nätverk.
6,773,885
Deep Networks with Stochastic Depth
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,644
Abstract-Behavioral ekonomi säger oss att känslor kan djupt påverka individuellt beteende och beslutsfattande. Gäller detta även för samhällen i stort, dvs. Kan samhällen uppleva stämningstillstånd som påverkar deras kollektiva beslutsfattande? I förlängningen är den allmänna stämningen korrelerad eller till och med prediktiv för ekonomiska indikatorer? Här undersöker vi om mätningar av kollektiva stämningstillstånd som härrör från storskaliga Twitter-flöden är korrelerade till värdet av Dow Jones Industrial Genomsnitt (DJIA) över tid. Vi analyserar textinnehållet i dagliga Twitter-flöden av två stämningsspårningsverktyg, nämligen OpinionFinder som mäter positivt vs. negativt humör och Google-Profile of Mood States (GPOMS) som mäter humör i termer av 6 dimensioner (Kalm, Alert, Sure, Vital, Kind, and Happy). Vi korsvaliderar de resulterande tidsserierna genom att jämföra deras förmåga att upptäcka allmänhetens svar på presidentvalet och Thanksgiving-dagen 2008. En Granger kausalitetsanalys och en Själv-Organizing Fuzzy Neural Network används sedan för att undersöka hypotesen att allmänhetens humörtillstånd, mätt genom opinionsbildare och GPOMS stämningstidsserie, är prediktiva för förändringar i DJIA slutvärden. Våra resultat visar att noggrannheten i DJIA förutsägelser kan förbättras avsevärt genom att inkludera specifika offentliga stämning dimensioner men inte andra. Vi finner en noggrannhet på 87,6% i att förutsäga den dagliga upp och ner förändringar i slutvärdena för DJIA och en minskning av medelvärdet procentfel med mer än 6%. Index Villkor-stock marknadsförutsägelse -twitter -mood analys.
Johan och Al. REF analyserar också textinnehållet i dagliga Twitter-inlägg och mäter stämningen i termer av 6 dimensioner (Kalm, Alert, Sure, Vital, Kind, and Happy), att hitta en noggrannhet på 87,6% i att förutsäga den dagliga upp och ner förändringar i slutvärdena för DJIA (Dow Jones Industrial Genomsnitt) och en minskning av MAPR (Mean Genomsnittligt Procentfel) med mer än 6%.
14,727,513
Twitter mood predicts the stock market
{'venue': 'Journal of Computational Science, 2(1), March 2011, Pages 1-8', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
82,645
Obemannade luftfartyg förväntas användas i stor utsträckning i framtida trådlös kommunikation på grund av fördelarna med hög rörlighet och enkel användning. De trådlösa kanalerna för sändning till mark för med sig en ny utmaning för informationssäkerheten i UAV-markkommunikationen. Detta dokument tar itu med en sådan utmaning i det fysiska skiktet genom att utnyttja rörligheten för UAV via sin bana design. Vi anser att en UAV-mark kommunikationssystem med flera potentiella tjuvlyssnare på marken, där informationen om platserna för tjuvlyssnare är ofullständig. Vi formulerar ett optimeringsproblem, som maximerar den genomsnittliga värsta fall sekretessen i systemet genom att gemensamt utforma den robusta banan och överföra kraft UAV under en given flygtid. Optimeringsproblemets icke konvexitet och den bristfälliga lokaliseringsinformationen för tjuvlyssnarna gör det svårt att lösa problemet på ett optimalt sätt. Vi föreslår en iterativ suboptimal algoritm för att lösa detta problem effektivt genom att tillämpa blockkoordinatmetoden, S-proceduren och successiv konvex optimeringsmetod. Simuleringsresultat visar att den föreslagna algoritmen kan förbättra den genomsnittliga värsta fallsekretessen avsevärt, jämfört med två andra referensalgoritmer utan robust design. Index Terms-UAV kommunikation, fysisk lagersäkerhet, banoptimering, strömkontroll, robust design.
Cui m.fl. REF undersökte problemet med den värsta sekretessgraden genom att gemensamt utforma UAV:s robusta bana och sändningskraft med flera tjuvlyssnare.
49,301,058
Robust Trajectory and Transmit Power Design for Secure UAV Communications
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,646
Abstract-This paper presenterar ett mobilt spårningssystem som utnyttjar förutsägbarheten i användarrörlighetsmönster i trådlösa PCS-nätverk. I detta system förutses en mobils framtida plats av nätverket, baserat på den information som samlats in från mobilens senaste rapport om plats och hastighet. När ett samtal görs, nätverkssidor destinationen mobil runt den förutsagda platsen. En mobil gör samma platsförutsägelse som nätverket gör; den inspekterar sin egen plats regelbundet och rapporterar den nya platsen när avståndet mellan den förutsagda och de faktiska platserna överskrider en tröskel. För att mer realistiskt representera de olika grad av hastighet korrelation i tiden, en Gauss-Markov rörlighet modell används. För praktiska system där mobilitetsmönstret varierar över tid föreslår vi en dynamisk Gauss-Markov-parameterskattning som ger mobilitetsparametrarna till prognosalgoritmen. Baserat på Gauss-Markov-modellen beskriver vi ett analytiskt ramverk för att utvärdera kostnaderna för mobilitetshantering för det föreslagna systemet. Vi presenterar också en approximationsmetod som minskar komplexiteten i kostnadsbedömningen för flerdimensionella system. Vi jämför sedan kostnaden för prediktiv mobilitetshantering med kostnaden för det reguljära, icke prediktiva distansbaserade systemet, för både fallet med idealiska Gauss-Markov rörlighet mönster och fallet med tidsvarierande rörlighet mönster. Det föreslagna systemets prestandafördelar visas under olika rörlighetsmönster, samtalsmönster, kostnader för platskontroll, kostnader för att uppdatera platser, kostnader för mobil personsökning och frekvenser för inspektioner av mobila platser. Som referenspunkt kan förutsägelsen minska kostnaderna för hantering av rörlighet med mer än 50 % för alla system, där en mobilanvändare har måttlig medelhastighet och där en uppdatering av en enda plats är minst kostsam som att söka i en mobil i en cell. Index Terms-distans-baserad platshantering, dynamisk parameteruppskattning, vätskeflöde, Gauss-Markov-modell, mobilitetsmönster, prediktiv mobilitetshantering, slumpmässig gång, trådlöst nätverk.
REF förutsäger framtida plats/hastighet genom att utnyttja en dynamisk Gauss-Markov-modell som tillämpas på aktuella och historiska rörelsedata.
9,332,281
Predictive distance-based mobility management for multidimensional PCS networks
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,648
Call centers hanterar kundfrågor från olika domäner såsom datorförsäljning och support, mobiltelefoner, biluthyrning, etc. Varje sådan domän har i allmänhet en domänmodell som är nödvändig för att hantera kundklagomål. Dessa modeller innehåller vanliga problemkategorier, typiska kundfrågor och deras lösningar, hälsningsstilar. För närvarande skapas dessa modeller manuellt med tiden. Mot detta föreslår vi en oövervakad teknik för att generera domänmodeller automatiskt från samtal transkriptioner. Vi använder ett toppmodernt system för automatisk taligenkänning för att transkribera samtalen mellan agenter och kunder, vilket fortfarande resulterar i höga felfrekvenser (40 %) och visar att även från dessa bullriga transkriptioner av samtal kan vi automatiskt bygga en domänmodell. Domänmodellen består främst av ett ämne taxonomi där varje nod kännetecknas av ämne(n), typiska frågor-svar (Q&As), typiska åtgärder och samtalsstatistik. Vi visar hur en sådan domänmodell kan användas för ämnesidentifiering av osedda samtal. Vi föreslår också ansökningar för medhjälpande agenter vid hantering av samtal och för agentövervakning utifrån domänmodellen.
Det har dock nyligen föreslagits att använda en oövervakad teknik för att generera domänmodeller automatiskt från samtal transkriptioner REF.
13,205,673
Automatic Generation Of Domain Models For Call-Centers From Noisy Transcriptions
{'venue': 'International Conference On Computational Linguistics And Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,649
Detta papper strävar efter pixel-nivå segmentering av aktörer och deras åtgärder i videoinnehåll. Olika från befintliga verk, som alla lär sig att segmentera från en fast vokabulär av skådespelare och actionpar, vi drar slutsatsen segmenteringen från en naturlig språkinmatning mening. Detta gör det möjligt att skilja mellan finkorniga aktörer i samma superkategori, identifiera aktörer och handlingsinstanser, och segmentpar som är utanför skådespelaren och action vokabulär. Vi föreslår en full-konvolutionell modell för pixel-nivå skådespelare och åtgärd segmentering med hjälp av en kodare-dekoder arkitektur optimerad för video. För att visa potentialen av skådespelare och actionvideo segmentering från en mening, utökar vi två populära skådespelare och action dataset med mer än 7 500 naturliga språkbeskrivningar. Experiment visar kvaliteten på de meningsstyrda segmenteringarna, vår modells generaliseringsförmåga och dess fördel för den traditionella aktörs- och aktionssegmenteringen jämfört med den senaste tekniken.
Gavrilyuk m.fl. REF förlängde nyligen A2D-datauppsättningen med mänskligt genererade meningar, beskrev aktörerna och åtgärderna i videon, och föreslog att skådespelare och åtgärdssegmentering skulle utföras från en mening.
4,002,773
Actor and Action Video Segmentation from a Sentence
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,650
Generativa kontradiktoriska nätverk (Gans) är en ram för att producera en generativ modell genom ett minimax-spel med två spelare. I detta dokument föreslår vi Generative Multi-Adversarial Network (GMAN), ett ramverk som utvidgar GAN till att omfatta flera olika diskriminatorer. I tidigare arbete kräver den framgångsrika utbildningen av GAN att minimax-målet ändras för att påskynda utbildningen i ett tidigt skede. Däremot kan GMAN utbildas på ett tillförlitligt sätt med det ursprungliga, otämjda målet. Vi utforskar ett antal designperspektiv med diskriminatorrollen som sträcker sig från formidabel motståndare till förlåtande lärare. Bildgenereringsuppgifter som jämför det föreslagna ramverket med standard GAN visar att GMAN producerar prover av högre kvalitet i en bråkdel av iterationerna när de mäts med ett parvis GAM-mått.
Däremot föreslår REF GMAN, en ram som utvidgar GAN till att omfatta flera olika diskriminatorer.
16,367,617
Generative Multi-Adversarial Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,651
I dokumentet föreslås ett nytt förfarande för övre förtroendebindning (UCB) för identifiering av armen med det största medelvärdet i ett flerarmat banditspel i den fasta konfidensinställningen med hjälp av ett litet antal totala prover. Förfarandet kan inte förbättras i den meningen att det antal prover som krävs för att identifiera den bästa armen ligger inom en konstant faktor av en lägre gräns baserad på lagen i den itererade logaritmen (LIL). Inspirerade av LIL, konstruerar vi vårt självförtroende för att uttryckligen redogöra för den oändliga tidshorisonten av algoritmen. Dessutom, genom att använda en ny stopptid för algoritmen undviker vi en förening bunden över armarna som har observerats i andra UCB-liknande algoritmer. Vi bevisar att algoritmen är optimal upp till konstanter och även visar genom simuleringar att den ger överlägsen prestanda med avseende på state-of-the-art.
REF föreslår en strategi för övre förtroende, inspirerad av lagen om itererat logaritm, för exakt bästa armidentifiering med tanke på viss fast nivå av förtroende.
2,606,438
lil' UCB : An Optimal Exploration Algorithm for Multi-Armed Bandits
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,652
Frågesvarssystem (QA) över Knowledge Graphs (KG) besvarar automatiskt frågor om naturligt språk med hjälp av fakta i ett kunskapsdiagram. Enkla frågor, som kan besvaras genom utvinning av ett enda faktum, utgör en stor del av de frågor som ställs på webben men utgör fortfarande utmaningar för QA-system, särskilt när de ställs mot en stor kunskapsresurs. Befintliga kvalitetssäkringssystem är vanligtvis beroende av olika komponenter som var och en är specialiserad på att lösa olika deluppgifter i problemet (t.ex. segmentering, enhetsigenkänning, disambigering och relationsklassificering osv.). I detta arbete följer vi en helt annan strategi: Vi tränar ett neuralt nätverk för att svara på enkla frågor på ett end-to-end sätt, lämnar alla beslut till modellen. Det lär sig att ranka subjekt predicate par för att möjliggöra hämtning av relevanta fakta som ges en fråga. Nätverket innehåller en inbäddad frågekod på ord- och teckennivå som gör det möjligt att hantera problem med utanför-vokabulära och sällsynta ord samtidigt som man fortfarande kan utnyttja semantik på ordnivå. Vår strategi uppnår resultat som är konkurrenskraftiga med toppmoderna end-to-end-strategier som bygger på en uppmärksamhetsmekanism.
REF föreslår en end-to-end word/character-level kodning nätverk för att ranka subjekt-relation par och hämta relevanta fakta.
12,983,389
Neural Network-based Question Answering over Knowledge Graphs on Word and Character Level
{'venue': 'WWW', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,653
I en Optimistisk Fair Exchange (OFE) för digitala signaturer, två parter utbyter sina signaturer rättvist utan att kräva någon online betrodd tredje part. Den tredje parten är endast inblandad när en tvist uppstår. I allt tidigare arbete har OFE endast beaktats i en miljö där båda de kommunicerande parterna är individer. Det finns inte mycket arbete med att diskutera det rättvisa utbytet mellan två grupper av användare, även om vi kan se att detta faktiskt är ett vanligt scenario i faktiska OFE-tillämpningar. I detta dokument introducerar vi en ny variant av OFE, kallad Group-oriented Optimistic Fair Exchange (GOFE). En GOFE gör det möjligt för två användare från två olika grupper att utbyta signaturer på uppdrag av sina grupper på ett rättvist och anonymt sätt. Även om GOFE kan betraktas som ett rättvist utbyte för gruppsignaturer, kan det vara ineffektivt om det är konstruerat generiskt från en gruppsignaturer. Istället visar vi att GOFE är bakåtkompatibel med den Ambious OFE (AOFE). Dessutom föreslår vi en effektiv och konkret konstruktion av GOFE, och bevisa dess säkerhet under de säkerhetsmodeller som vi föreslår i denna modell. Systemets säkerhet bygger på ett beslutslinjärt antagande och ett starkt Diffie-Hellman-antagande enligt den slumpmässiga orakelmodellen.
Huang m.fl. introducerade också en annan variant av AOFE, kallad grupporienterat optimistiskt rättvist utbyte (GOFE) REF.
8,996,255
Group-Oriented Fair Exchange of Signatures
{'venue': 'Inf. Sci.', 'journal': 'Inf. Sci.', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,654
Problemramar ger ett sätt att analysera och bryta ner problem. De betonar världen utanför datorn, hjälper utvecklaren att fokusera på problemdomänen, istället för att glida in i uppfinnande lösningar. Men även blygsamt komplicerade problem kan tvinga oss till en detaljerad genomgång av lösningens struktur. Detta strider mot avsikten med strategin med problemramar, som är att fördröja behandlingen av lösningsutrymmet tills en god förståelse för problemet har uppnåtts. Vi utvidgar därför problemramar, vilket gör det möjligt att betrakta arkitektoniska strukturer, tjänster och artefakter som en del av problemdomänen. Genom en fallstudie visar vi hur denna förlängning förbättrar tillämpligheten av problemramar för att möjliggöra en arkitekturbaserad strategi för programvaruutveckling. Vi drar slutsatsen att genom vår utvidgning utvidgas tillämpbarheten av problemramar till att omfatta domäner med befintligt arkitektoniskt stöd.
Problemramar utökades i denna riktning, vilket möjliggör en arkitekturbaserad strategi för programvaruutveckling REF.
2,322,324
Relating software requirements and architectures using problem frames
{'venue': 'Proceedings IEEE Joint International Conference on Requirements Engineering', 'journal': 'Proceedings IEEE Joint International Conference on Requirements Engineering', 'mag_field_of_study': ['Computer Science']}
82,655
Abstract-Power optimering har blivit en viktig utmaning i utformningen av storskaliga företag datacenter. Befintliga forskningsinsatser fokuserar främst på datorservrar för att minska deras energiförbrukning, medan endast ett fåtal studier har försökt ta itu med energiförbrukningen i datacenternätverk (DCNs), som kan stå för 20% av den totala energiförbrukningen i ett datacenter. I detta dokument föreslår vi CARPO, en korrelationsmedveten energioptimeringsalgoritm som dynamiskt konsoliderar trafikflöden på en liten uppsättning länkar och växlar i en DCN och sedan stänger oanvända nätverksenheter för energibesparingar. I skarp kontrast till det befintliga arbetet är CARPO utformad utifrån en viktig observation från analysen av verkliga DCN spår att bandbreddskraven för olika flöden inte toppar på exakt samma gång. Om korrelationerna mellan flödena beaktas i konsolideringen kan därför större energibesparingar uppnås. Dessutom integrerar CARPO trafikkonsolidering med kopplingshastighet anpassning för maximerade energibesparingar. Vi implementerar CARPO på en hårdvarutestbädd bestående av 10 virtuella switchar konfigurerade med en produktion 48-port OpenFlow switch och 8 servrar. Våra empiriska resultat med Wikipedia spår visar att CARPO kan spara upp till 46% av nätenergin för en DCN, samtidigt som den bara har försumbar fördröjning ökar. CARPO överträffar också två state-of-the-art basals med 19,6% respektive 95% på energibesparingar. Våra simuleringsresultat med 61 flöden visar också CARPO:s överlägsna energieffektivitet över baslinjerna.
Korrelation-medveten strömoptimering (CARPO) integrerar dynamisk konsolidering av trafikflöden i en uppsättning växlar med anpassning av förhållandet mellan länkar REF.
14,865,089
CARPO: Correlation-aware power optimization in data center networks
{'venue': '2012 Proceedings IEEE INFOCOM', 'journal': '2012 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
82,656
Abstrakt. Vi tar itu med problemet med att använda opålitliga (potentiellt skadliga) kryptografiska hjälpare. Vi tillhandahåller en formell säkerhetsdefinition för säker outsourcing av beräkningar från en beräkningsbegränsad enhet till en opålitlig hjälpare. I vår modell, den kontradiktoriska miljön skriver programvaran för hjälparen, men sedan inte har direkt kommunikation med den när enheten börjar förlita sig på den. Utöver säkerheten tillhandahåller vi också en ram för kvantifiering av effektiviteten och kontrollbarheten i en outsourcingimplementation. Vi presenterar två praktiska outsourcing-säkra system. Specifikt visar vi hur man säkert outsourca modulär exponentiation, som presenterar den beräkningsmässiga flaskhalsen i de flesta publika nyckel kryptografi på beräkningsbegränsade enheter. Utan outsourcing, en enhet skulle behöva O(n) modulära multiplikationer för att utföra modulär exponentiation för n-bit exponenter. Belastningen minskar till O(log 2 n) för varje exponentiation-baserat system där den ärliga enheten kan använda två opålitliga exponentiationsprogram; vi belyser Cramer-Shoup cryptosystem [13] och Schnorr signaturer [28] som exempel. Med en avslappnad uppfattning om säkerhet, uppnår vi samma belastningsreduktion för en ny CCA2-säker kryptering system med bara en opålitlig Cramer-Shoup krypteringsprogram.
Hohenberger och Lysyanskaya REF presenterade den första outsource-säkra algoritmen för modulära exponentiationer för outsourcing kryptografiska beräkningar.
9,922,526
How to securely outsource cryptographic computations
{'venue': 'In TCC 05', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,657
Abstract-Recent forskning har visat att Intels SGX är sårbar för olika mjukvarubaserade sidokanal attacker. Särskilt attacker som övervakar CPU caches delas mellan offret enklave och opålitlig programvara möjliggör korrekt läckage av hemliga enklave data. Kända försvar antar utvecklare hjälp, kräver hårdvaruförändringar, införa höga overhead, eller förhindra bara några av de kända attacker. I detta dokument föreslår vi slumpmässig lokalisering av data som en ny defensiv strategi för att ta itu med hotet om sidokanalsattacker. Vårt främsta mål är att bryta länken mellan den privilegierade motståndarens observationer och offrets faktiska dataåtkomst. Vi designar och implementerar ett kompilatorbaserat verktyg som kallas DR.SGX att instrument enklave kod så att dataplatser permuteras vid granulariteten av cachelinjer. Vi inser permutationen med CPU: s kryptografiska hårdvaruacceleration enheter ger säker randomisering. För att förhindra korrelation av upprepade minnesåtkomster re-randomize vi kontinuerligt alla enklave data under körning. Vår lösning skyddar effektivt många (men inte alla) enklaver från cacheattacker och ger en kompletterande enklavhärdningsteknik som är särskilt användbar mot oförutsägbara informationsläckage.
DR.SGX REF presenteras för att försvara mot cache sidokanal attacker.
19,364,841
DR.SGX: Hardening SGX Enclaves against Cache Attacks with Data Location Randomization
{'venue': 'Proceedings of the 35th Annual Computer Security Applications Conference (ACSAC 2019)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,658
Kinesisk poesi generation är en mycket utmanande uppgift i naturligt språk bearbetning. I denna uppsats föreslår vi en ny två-stegs poesigenererande metod som först planerar sub-topics av dikten enligt användarens skrivande intention, och sedan genererar varje rad av dikten sekventiellt, med hjälp av en modifierad återkommande neurala nätverk kodare-dekoder ram. Den föreslagna planeringsbaserade metoden kan säkerställa att dikten är konsekvent och semantiskt förenlig med användarens avsikter. En omfattande utvärdering med mänskliga bedömningar visar att vårt föreslagna tillvägagångssätt överträffar de moderna poesiskapande metoderna och diktkvaliteten är på något sätt jämförbar med mänskliga poeter.
För att säkerställa att den genererade dikten är konsekvent och semantiskt förenlig med användarnas avsikter föreslår REF en tvåstegsmetod för poesiproduktion.
652,921
Chinese Poetry Generation with Planning based Neural Network
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,659
Detta dokument presenterar så gott vi vet den första end-to-end objekt spårning metod som direkt kartlägger från rå sensor ingång till objekt spår i sensor utrymme utan att kräva någon funktion teknik eller system identifiering i form av anläggning eller sensor modeller. Specifikt, vårt system accepterar en ström av rå sensor data i ena änden och, i realtid, producerar en uppskattning av hela miljön tillstånd vid utgången inklusive även ocluded objekt. Vi uppnår detta genom att sätta in problemet som en djupinlärning uppgift och utnyttja sekvensmodeller i form av återkommande neurala nätverk för att lära sig en kartläggning från sensormätningar till objektspår. I synnerhet föreslår vi en inlärningsmetod baserad på en form av input dropout som gör det möjligt att lära på ett oövervakat sätt, endast baserat på råa, ockluded sensordata utan tillgång till mark-sanningar. Vi demonstrerar vår strategi med hjälp av en syntetisk datauppsättning utformad för att härma uppgiften att spåra objekt i 2D-laserdata - som ofta förekommer i robottillämpningar - och visa att den lär sig att spåra många dynamiska objekt trots ocklusioner och närvaron av sensorbuller.
al in REF, med hjälp av en syntetisk datauppsättning som innehåller cirkulära föremål och endast linjär rörelse.
10,892,139
Deep Tracking: Seeing Beyond Seeing Using Recurrent Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,660
Den processdrivna sammansättningen av webbtjänster växer fram som ett lovande tillvägagångssätt för att integrera affärsapplikationer inom och över organisatoriska gränser. I detta tillvägagångssätt federeras enskilda webbtjänster till sammansatta webbtjänster vars affärslogik uttrycks som en processmodell. Denna processmodells uppgifter är i huvudsak krav på funktioner som erbjuds av de underliggande komponenttjänsterna. Vanligtvis kan flera komponenttjänster utföra en given uppgift, men med olika nivåer av prissättning och kvalitet. I detta dokument förespråkar vi att urvalet av komponenttjänster bör utföras under utförandet av en sammansatt tjänst, snarare än vid designtidpunkten. Dessutom bör detta urval beakta flera kriterier (t.ex. pris, varaktighet, tillförlitlighet), och det bör ta hänsyn till globala begränsningar och preferenser som fastställs av användaren (t.ex. budgetbegränsningar). I dokumentet föreslås därför en global planeringsstrategi för att optimalt välja komponenttjänster under utförandet av en sammansatt tjänst. Serviceval är formulerat som ett optimeringsproblem som kan lösas med hjälp av effektiva linjära programmeringsmetoder. Experimentella resultat visar att denna globala planeringsstrategi överträffar strategier där komponenttjänsterna väljs individuellt för varje uppgift i en sammansatt tjänst.
I REF föreslog författarna en global planeringsstrategi för att optimalt välja komponenttjänster under utförandet av en sammansatt tjänst.
12,198,975
Quality driven web services composition
{'venue': "WWW '03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,661
: Från en ingång sekvens (botten) av en stående T. rex simuleras via en Saint Venant-Kirchhoff deformation modell, redigerar vi inmatningsrörelsen med 27 rum-tid begränsningar för att göra dinosaurien huk & hoppa samtidigt som man försöker fånga den lilla plan flyger runt det (överst). Vi presenterar en ny metod för elastisk animation redigering med utrymmestid begränsningar. I en skarp avvikelse från tidigare tillvägagångssätt optimerar vi inte bara styrkrafter som läggs till en linjäriserad dynamisk modell, utan även optimerar materialegenskaperna för att bättre matcha användarens begränsningar och ge en rimlig och konsekvent rörelse. Vår strategi uppnår effektivitet och skalbarhet genom att utföra alla beräkningar i ett reducerat rotationståg (RS) utrymme konstruerat med både kubature och geometrisk reduktion, vilket leder till två storleksordningsförbättringar jämfört med den ursprungliga RS-metoden. Vi visar nyttan och mångsidigheten av vår metod i olika applikationer, inklusive rörelseredigering, posera interpolation, och uppskattning av materialparametrar från befintliga animationssekvenser.
I REF föreslogs en metod för redigering av elastiska animeringar för att uppnå bättre effektivitet och skalbarhet genom att utföra alla beräkningar i ett reducerat utrymme för rotationståg.
8,011,455
Space-time editing of elastic motion through material optimization and reduction
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,662
Den snabbt ökande mängden offentliga data inom kemi och biologi ger nya möjligheter till storskalig datautvinning för läkemedelsupptäckt. Systematisk integrering av dessa heterogena uppsättningar och tillhandahållande av algoritmer till datagruvorna skulle göra det möjligt att undersöka komplexa verkningsmekanismer för narkotika. I detta arbete integrerade och kommenterade vi data från offentliga dataset om droger, kemiska föreningar, proteinmål, sjukdomar, biverkningar och vägar, bygga ett semantiskt länkat nätverk bestående av över 290 000 noder och 720.000 kanter. Vi utvecklade en statistisk modell för att bedöma sambandet mellan narkotikamålpar baserat på deras relation till andra länkade objekt. Validering experiment visar modellen kan korrekt identifiera kända direkt drog målpar med hög precision. Indirekta läkemedelsmålpar (t.ex. läkemedel som ändrar genuttrycksnivå) identifieras också men inte lika starkt som direkta par. Vi beräknade också associationspoängen för 157 läkemedel från 10 sjukdomsområden mot 1683 mänskliga mål, och mätte deras likhet med hjälp av en 157-1683 poängmatris. Likhetsnätverket visar att läkemedel från samma sjukdomsområde tenderar att samlas på sätt som inte fångas upp av strukturell likhet, med flera potentiella nya läkemedel parningar identifieras. Detta arbete ger därmed ett nytt, validerat alternativ till befintliga algoritmer för prognostisering av läkemedel. Webbtjänsten finns fritt tillgänglig på http://chem2bio2rdf.org/slap.
REF föreslår en Semantic Link Association Prediction (SLAP) modell för att förutsäga "missing links" av läkemedel och mål i Chem2Bio2RDF.
15,175,989
Assessing Drug Target Association Using Semantic Linked Data
{'venue': 'PLoS Computational Biology', 'journal': 'PLoS Computational Biology', 'mag_field_of_study': ['Biology', 'Medicine', 'Computer Science']}
82,663
Vi tillämpar manipuleringsplanering för datoranimering. En ny vägplanerare presenteras som automatiskt beräknar kollisionsfria banor för flera samarbetande armar för att manipulera ett flyttbart objekt mellan två konfigurationer. Denna implementerade planerare kan hantera komplicerade uppgifter där det är fråga om regrasting. Dessutom presenterar vi en ny invers kinematicsalgoritm för de mänskliga armarna. Denna algoritm används av planeraren för generering av realistiska mänskliga armrörelser när de manipulerar objekt. Vi ser vårt system som ett verktyg för att underlätta produktionen av animation.
I REF är en vägplanerare utvecklad för flera samarbetande armar för att manipulera ett flyttbart objekt mellan två konfigurationer i samband med datoranimering.
14,210,709
Planning motions with intentions
{'venue': "SIGGRAPH '94", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,664
Ett långsiktigt mål med maskininlärning forskning är att bygga en intelligent dialogagent. Merparten av forskningen inom naturligt språk har fokuserat på lärande från fasta utbildningsset av märkta data, med handledning antingen på ordnivå (taggning, tolkningsuppgifter) eller meningsnivå (fråga svar, maskinöversättning). Den här typen av tillsyn är inte realistisk när det gäller hur människor lär sig, där språk både lärs av och används för kommunikation. I detta arbete studerar vi dialogbaserad språkinlärning, där handledning ges naturligt och implicit i svaret från dialogpartnern under samtalet. Vi studerar denna uppsättning på två områden: bAbI-datasetet [29] och storskaligt svar på frågor från [4]. Vi utvärderar en uppsättning grundläggande inlärningsstrategier för dessa uppgifter, och visar att en ny modell med prediktiv lookahead är en lovande metod för att lära sig av en lärares svar. I synnerhet ett överraskande resultat är att den kan lära sig att svara korrekt på frågor utan någon belöningsbaserad tillsyn alls.
Vårt arbete är nära relaterat till ett nytt arbete från REF som lär sig genom att föra samtal där handledning ges naturligt i svaret under samtalet.
2,017,135
Dialog-based Language Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,665
Abstrakt. Tänk på följande spel mellan en mask och en alert 3 över ett nätverk av n noder. Inledningsvis är inga noder infekterade eller larmade och varje nod i nätverket är en speciell detektornod oberoende med liten men konstant sannolikhet. Spelet börjar med en enda nod som blir infekterad. I varje omgång därefter skickar varje infekterad nod ut ett konstant antal maskar till andra noder i befolkningen, och varje larmad nod skickar ut ett konstant antal varningar. Noder i nätverket ändrar tillstånd enligt följande fyra regler: 1) Om en mask tas emot av en nod som inte är en detektor och inte är varnad, att nod blir infekterad; 2) Om en mask tas emot av en nod som är en detektor, att nod blir varnad; 3) Om en varning tas emot av en nod som inte är infekterad, att nod blir varnad; 4) Om en mask eller en varning tas emot av en nod som redan är infekterad eller redan varnad, då finns det ingen förändring i tillståndet för den noden. Vi gör två antaganden om det här spelet. För det första, att en infekterad nod kan skicka mask meddelanden till någon annan nod i nätverket, men i motsats, en larmad nod kan skicka varningsmeddelanden endast genom en tidigare bestämd, konstant grad overlay nätverk. För det andra antar vi att de infekterade noderna är intelligenta, samordnade och i huvudsak allvetande. Med andra ord vet de infekterade noderna allt utom vilka noder som är detektorer och de larmade nodernas slumpmässiga myntflips d.v.s. De känner till topologin för det overlay-nätverk som används av larmen, vilka noder som larmas och som är infekterade när som helst, var varningar och maskar skickas, den övergripande strategi som används av de larmade noderna, etc. De larmade noderna antas inte veta något om vilka andra noder som är infekterade eller larmade, där varningar eller maskar skickas, eller den strategi som används av de infekterade noderna. Finns det en strategi för de larmade noderna som bara säkerställer en försvinnande liten del av noderna blir infekterade, oavsett vilken strategi som används av de infekterade noderna? Förvånansvärt nog är svaret ja. I synnerhet visar vi att en enkel strategi uppnår detta resultat med sannolikhet närmar sig 1 förutsatt att overlay nätverket har bra nod expansion. Specifikt, Detta resultat håller om d ≥ α och, Där α och 3 Specifikt, Vi anser självcertifierande varningar [6], som innehåller korta bevis på att en säkerhetsbrist finns och därmed eliminera falska varningar. β representerar hastigheten för spridningen av larmet respektive masken; γ är sannolikheten för att en nod är en detektornod; d är graden av överlagringsnätet; och c är nodexpansion av överlagringsnätet. Därefter ger vi empiriska resultat som tyder på att våra algoritmer för larmet kan vara användbara i nuvarande storskaliga nätverk. Slutligen visar vi att om overlay-nätverket har dålig expansion, särskilt om (1 − γ)β > d, då masken sannolikt infekterar nästan alla noder som inte är detektorer.
Mer specifikt finns det i REF två motsatta parter "varningen" och "masken" (kontrolleras av motståndaren) som båda försöker få kontroll över nätverket.
12,449,975
Worm Versus Alert: Who Wins in a Battle for Control of a Large-Scale Network?
{'venue': 'OPODIS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,666
bör vara känslig för tidsstruktur och tillåta både inmatning (sekvens av ramar) och utgång (följd av ord) av variabel längd. För att närma sig detta problem föreslår vi en ny end-to-end sekvens-to-sekvens-modell för att generera bildtexter för videor. För detta utnyttjar vi återkommande neurala nätverk, särskilt LSTMs, som har visat toppmodern prestanda i bildtextgenerering. Vår LSTM-modell är utbildad på video-sentence par och lär sig att koppla en sekvens av videoramar till en sekvens av ord för att generera en beskrivning av händelsen i videoklippet. Vår modell kan naturligtvis lära sig temporal struktur av sekvensen av ramar samt sekvensen modell av de genererade meningar, dvs... En språkmodell. Vi utvärderar flera varianter av vår modell som utnyttjar olika visuella funktioner på en standarduppsättning YouTube-videor och två filmbeskrivningsdataset (M-VAD och MPII-MD).
Venugopalan m.fl. REF använder bildtextureringsmodellen för att generera videobeskrivningar från en sekvens av videoramar.
4,228,546
Sequence to Sequence -- Video to Text
{'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
82,667
Abstract-Vi anser att ett statusuppdateringssystem i realtid består av ett källdestinationsnätverk. En stokastisk process observeras vid källan, och prover, så kallade statusuppdateringar, extraheras vid slumpmässiga tillfällen, och levereras till destinationen. I detta dokument utökar vi begreppet åldrande av information genom att införa metriska kostnader för uppdateringsförsening (CoUD) för att karakterisera kostnaden för att ha gammal information på destinationen. Vi introducerar Value of Information of Update (VoIU) metrisk som fångar minskningen av CoUD vid mottagandet av en uppdatering. Betydelsen av VoIU metrisk ligger i dess dragbarhet som möjliggör ett alternativt prestandakriterium i statusuppdateringssystem.
I REF införde författarna ett mätvärde för information om uppdatering (VoIU) för att fånga graden av betydelse av den mottagna informationen på destinationen.
12,160,015
Age and value of information: Non-linear age case
{'venue': '2017 IEEE International Symposium on Information Theory (ISIT)', 'journal': '2017 IEEE International Symposium on Information Theory (ISIT)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,668
Vårt mål är att identifiera de funktioner som förutsäger förekomsten och placeringen av diskurser i handledningsförklaringar för att underlätta den automatiska generationen av förklaringar. Tidigare försök att utforma regler för textgenerering baserades på intuition eller ett litet antal konstruerade exempel. Vi tillämpar ett maskininlärningsprogram, C4.5, för att framkalla beslutsträd för köförekomst och placering från en corpus av data kodad för en mängd olika funktioner som tidigare ansågs påverka köanvändning. Våra experiment gör att vi kan identifiera de funktioner med mest prediktiv kraft, och visa att maskininlärning kan användas för att inducera beslut träd användbara för textgenerering. Discourse cues är ord eller fraser, till exempel därför att, först, och även om, som markerar strukturella och semantiska relationer mellan diskurs entiteter. De spelar en avgörande roll i många diskurser bearbetningsuppgifter, inklusive plan erkännande (Litman och Allen, 1987), text förståelse (Cohen, 1984; Hobbs, 1985; Mann och Thompson, 1986; Reichman-Adar, 1984) och anaphora resolution (Grosz och Sidner, 1986). Dessutom visar forskning inom läsförståelse att välgörande användning av köer förbättrar förståelse och återkallande (Goldman, 1988), men att deras urskillningslösa användning kan ha skadliga effekter på återkallande (Millis, Graesser, och Haberlandt, 1993). Vårt mål är att identifiera allmänna strategier för köanvändning som kan implementeras för automatisk textgenerering. Ur generationsperspektivet består användningen av köer av tre distinkta, men inbördes relaterade problem: (1) förekomst: huruvida man ska inkludera en signal i den genererade texten, (2) Souza, 1990; Vander Linden och Martin, 1995). Andra hypoteser om cue-användning härrör från arbetet med diskurskonsistens och struktur. Tidigare forskning (Hobbs, 1985; Grosz och Sidner, 1986; Schiffrin, 1987; Mann och Thompson, 1988; Elhadad och McKeown, 1990), som har varit till stor del beskrivande, tyder på faktorer såsom strukturella drag i diskursen (t.ex. nivå av inbäddning och segment komplexitet), avsiktliga och informativa relationer i denna struktur, ordning av relata, och syntaktisk form av diskurs väljare. Moser och Moore (1995; 1997) kodade en corpus av naturligt förekommande tutorial förklaringar för de olika funktioner som identifierats i tidigare arbete. Eftersom de också var intresserade av kontrasten mellan förekomst och icke-förekomst av signaler, de uttömmande kodade för alla de faktorer som anses bidra till köanvändning i hela texten. Från sin studie, Moscr och Moore identifierade flera intressanta korrelationer mellan särskilda funktioner och specifika aspekter av köanvändning, och kunde testa specifika hypoteser från hterature som baserades på konstruerade exempel. I denna uppsats fokuserar vi på cue förekomst och placering, och presenterar en empirisk studie av hypoteser från tidigare forskning, som aldrig systematiskt har utvärderats med naturligt förekommande data. Wc använder ett maskininlärningsprogram, C4.5 (Quinlan, 1993), på taggade corpus av Moser och Moore för att framkalla beslut träd. Antalet kodade funktioner och deras interaktioner gör den manuella konstruktionen av regler som förutsäger förekomst och placering till en svåråtkomlig uppgift. Våra resultat bekräftar till stor del förslagen från hterature, och förtydligar dem genom att highhghghing de mest inflytelserika funktioner för en viss uppgift. Discourse struktur, både när det gäller segment struktur och nivåer av inbäddning, påverkar kö händelse mest; avsiktliga relationer spelar också en viktig roll. För cue placering är de viktigaste faktorerna syntaktisk struktur och segment komplexitet. Tidningen är organiserad enligt följande. I Avsnitt 2 diskuterar vi tidigare forskning mer i detalj. Avsnitt 3 ger en översikt över Moser och Moores kodningsschema. I Avsnitt 4 presenterar vi våra inlärningsförsök, och i Avsnitt 5 diskuterar vi våra resultat och avslutar. 80 Försäkringstekniska avsättningar för försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring) för försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) för försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring) för försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring) för försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) för försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring) för försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) för försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) för försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag)
REF använde C4.5 för att förutsäga förekomst och placering.
979
Learning Features That Predict Cue Usage
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,669
Att upptäcka enskilda fotgängare i en folkmassa är fortfarande ett utmanande problem eftersom fotgängare ofta samlas ochockludera varandra i verkliga scenarier. I den här artikeln undersöker vi först hur en toppmodern fotgängardetektor skadas av crowd ocklusion genom experiment, vilket ger insikter i problemet med crowd ocklusion. Sedan föreslår vi en ny begränsande låda regressionsförlust speciellt utformad för crowd scener, som kallas repulsion förlust. Denna förlust drivs av två motiv: attraktionen av målet, och repulsionen av andra omgivande objekt. Avvisande termen förhindrar förslaget från att flyttas till omgivande objekt vilket leder till mer crowd-robust lokalisering. Vår detektor tränas genom repulsion förlust överträffar toppmoderna metoder med en betydande förbättring i ocklusion fall.
REF föreslog en ny begränsande ruta regressionsförlust, så kallad repulsionsförlust.
4,431,236
Repulsion Loss: Detecting Pedestrians in a Crowd
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,670
Det kan vara utmanande att träna multi-task neurala nätverk som överträffar eller ens matcha deras en-task motsvarigheter. För att hjälpa till med detta föreslår vi att man använder sig av kunskapsdestillation där modeller med en enda uppgift lär ut en modell med flera uppgifter. Vi förhöjer denna utbildning med lärar glödgning, en ny metod som gradvis övergår modellen från destillation till övervakad inlärning, vilket hjälper multi-task modellen överträffar sina en-task lärare. Vi utvärderar vårt tillvägagångssätt genom att finjustera BERT på GLUE-riktmärket. Vår metod förbättrar konsekvent över standard enkel-task och multi-task utbildning.
REF föreslår att man använder sig av kunskapsspridning så att en enda uppgiftsmodell kan lära ut en modell med flera uppgifter.
85,464,175
BAM! Born-Again Multi-Task Networks for Natural Language Understanding
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,672
Abstract Två mobila agenter, med start från olika noder i ett nätverk vid möjligen olika tidpunkter, måste träffas på samma nod. Detta problem kallas mötesplats. Agenter rör sig i synkrona rundor. Varje agent har ett distinkt heltal etikett från uppsättningen {1,.., L}. Två huvudsakliga effektivitetsåtgärder för mötesplatsen är dess tid (antalet rundor fram till mötet) och dess kostnad (det totala antalet kanttraversaler). Vi undersöker kompromisser mellan dessa två åtgärder. Ett naturligt riktmärke för både tid och kostnad för möte i ett nätverk är det antal egg traversals som behövs för att besöka alla noder av nätverket, kallas prospekteringstiden. Därför uttrycker vi tid och kostnad för mötesplatsen som funktioner av en övre gräns E på tiden för utforskning (där E och en motsvarande utforskningsförfarande är kända för båda agenter) och av storleken L av etiketten utrymme. Vi presenterar två naturliga mötesplatsalgoritmer. Algorithm Cheap har kostat O(E) (och, i själva verket, en version av denna algoritm för modellen där agenterna startar samtidigt har kosta exakt E) och tid O(E L). Algoritm Fast har både tid och kostnad O(E log L). Våra viktigaste bidrag är lägre gränser som visar att, kanske förvånande, dessa två algoritmer fånga kompromisser mellan tid och kostnad för mötesplats nästan hårt. Vi visar att varje deterministisk mötesplatsalgoritm för kostnadsasymptotiskt E (dvs. kostnad E + o(E)) måste ha tid (E L). Å andra sidan visar vi att varje deterministisk mötesplatssalgoritm med tids komplexitet O(E log L) måste ha kostat E log L. B Avery Miller Ordförande
Detta betonades nyligen i REF där författarna studerade avvägningarna mellan kostnad och tid för det deterministiska mötesplatssproblemet.
12,847,068
Time versus cost tradeoffs for deterministic rendezvous in networks
{'venue': 'Distributed Computing', 'journal': 'Distributed Computing', 'mag_field_of_study': ['Computer Science', 'Engineering']}
82,673
Abstract-Crowdsourcing system som utnyttjar den mänskliga intelligensen för att lösa komplexa uppgifter har vunnit stort intresse och antagande under de senaste åren. Majoriteten av de befintliga crowdsourcingsystemen är dock beroende av centrala servrar, som är föremål för svagheterna i den traditionella förtroendebaserade modellen, såsom en enda bristpunkt. De är också sårbara för distribuerad överbelastning (DDoS) och Sybil attacker på grund av skadliga användare engagemang. Dessutom kan höga serviceavgifter från crowdsourcing-plattformen hindra utvecklingen av crowdsourcing. Hur man ska ta itu med dessa potentiella frågor har både forskning och stort värde. I detta dokument konceptualiserar vi ett blockchain-baserat decentraliserat ramverk för crowdsourcing som heter CrowdBC, där en begärandes uppgift kan lösas av en mängd arbetstagare utan att förlita sig på någon tredje betrodd institution, användarnas integritet kan garanteras och endast låga transaktionsavgifter krävs. Vi inför i synnerhet strukturen i vårt föreslagna ramverk, som vi ger ett konkret system på grundval av. Vi implementerar vidare en programvaruprototyp på Ethereums offentliga testnätverk med verkliga dataset. Experimentella resultat visar genomförbarheten, användbarheten och skalbarheten hos vårt föreslagna crowdsourcing-system.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF utformade ett blockchain-baserat decentraliserat ramverk för crowdsourcing, vilket möjliggör crowdsourcing utan den centraliserade servern.
26,619,090
CrowdBC: A Blockchain-Based Decentralized Framework for Crowdsourcing
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
82,674
Abstract-I detta dokument studerar vi Demand Response (DR) problematik för olika nivåer av informationsutbyte i ett smart nät. Vi föreslår ett dynamiskt prissättningssystem som uppmuntrar konsumenterna att uppnå en aggregerad belastningsprofil som är lämplig för allmännyttiga företag, och undersöker hur nära de kan komma en idealisk platt profil beroende på hur mycket information de delar. När kunderna kan dela alla sina belastningsprofiler, tillhandahåller vi en distribuerad algoritm, som är ett kooperativt spel mellan konsumenter, vilket avsevärt minskar den totala kostnaden och topp-till-genomsnitt förhållandet (PAR) i systemet. I avsaknad av fullständig informationsdelning (av sekretessskäl), när användare endast har tillgång till den momentana totala belastningen på nätet, tillhandahåller vi distribuerade stokastiska strategier som framgångsrikt utnyttjar denna information för att förbättra den totala belastningsprofilen. Simuleringsresultaten bekräftar att dessa lösningar effektivt drar nytta av informationsutbyte inom nätet och minskar både den totala kostnaden och PAR.
I REF föreslogs ett dynamiskt prissättningssystem för att uppmuntra kunderna att uppnå en aggregerad belastningsprofil som lämpar sig för leverantörer, och problemet med efterfrågeflexibilitet undersöktes för olika nivåer av informationsutbyte mellan konsumenterna i det smarta nätet.
16,753,260
Incentive-Based Energy Consumption Scheduling Algorithms for the Smart Grid
{'venue': '2010 First IEEE International Conference on Smart Grid Communications', 'journal': '2010 First IEEE International Conference on Smart Grid Communications', 'mag_field_of_study': ['Engineering']}
82,675
Teoretiska och empiriska bevis tyder på att djupet av neurala nätverk är avgörande för deras framgång. Utbildningen blir dock svårare i takt med att djupet ökar, och utbildning i mycket djupa nätverk är fortfarande ett öppet problem. Här introducerar vi en ny arkitektur som är utformad för att övervinna detta. Våra så kallade motorvägsnät tillåter obehindrat informationsflöde över många lager på informationsvägar. De är inspirerade av de återkommande nätverken för långtidsminnen och använder adaptiva gating-enheter för att reglera informationsflödet. Även med hundratals lager, kan motorvägsnätet tränas direkt genom enkel lutning nedstigning. Detta gör det möjligt att studera extremt djupa och effektiva arkitekturer.
Inspirerad av de återkommande nätverken för kortfristiga minnen antar motorvägsnäten REF identitetsomvandlingar tillsammans med en adaptiv gatingmekanism, vilket möjliggör beräkningsvägar längs vilka information kan flöda över många lager utan att försvagas.
2,722,012
Training Very Deep Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,676
Vi föreslår en ny nätverksbaserad metod för lokaliseringsuppskattning i sociala medier som integrerar belägg för den sociala bindningsstyrkan mellan användare för förbättrad lokaliseringsuppskattning. Konkret föreslår vi en platsskattare -FriendlyLocation - som utnyttjar förhållandet mellan styrkan i kopplingen mellan ett par användare och avståndet mellan paret. Baserat på en undersökning av över 100 miljoner geokodade tweets och 73 miljoner Twitter-användarprofiler, identifierar vi flera faktorer såsom antalet följare och hur användarna interagerar som starkt kan avslöja avståndet mellan ett par användare. Vi använder dessa faktorer för att träna ett beslut träd för att skilja mellan par av användare som är benägna att bo i närheten och par av användare som är benägna att leva i olika områden. Vi använder resultaten av detta beslut träd som indata till en maximal sannolikhet estimator för att förutsäga en användares plats. Vi finner att denna föreslagna metod avsevärt förbättrar resultaten av lokaliseringsuppskattning i förhållande till en toppmodern teknik. Vårt system minskar det genomsnittliga felavståndet för 80% av Twitter-användare från 40 miles till 21 miles med endast information från användarens vänner och vänner, vilket har stor betydelse för att öka traditionella sociala medier och berika platsbaserade tjänster med mer förfinade och exakta lokaliseringsberäkningar.
McGee och Al. REF använde interaktionen mellan användare i ett nätverk för att utbilda ett beslutsträd för att skilja mellan par av användare som sannolikt bor i närheten.
207,206,685
Location prediction in social media based on tie strength
{'venue': 'CIKM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,677
Abstrakt. Människor kan lära sig på ett kontinuerligt sätt. Gammal sällan utnyttjad kunskap kan skrivas över av ny inkommande information medan viktig, ofta använda kunskap förhindras från att raderas. Inom system för artificiellt lärande har det livslånga lärandet hittills främst inriktats på att samla kunskap om uppgifter och övervinna katastrofal glömska. I detta dokument hävdar vi att med tanke på den begränsade modellkapaciteten och den obegränsade nya information som ska inhämtas måste kunskap bevaras eller raderas selektivt. Inspirerade av neuroplasticitet föreslår vi ett nytt tillvägagångssätt för livslångt lärande, myntat Memory Aware Synapses (MAS). Den beräknar betydelsen av parametrarna i ett neuralt nätverk på ett oövervakat och online sätt. Med tanke på ett nytt urval som matas till nätverket ackumulerar MAS ett viktigt mått för varje parameter i nätverket, baserat på hur känslig den förutsagda utdatafunktionen är för en förändring av denna parameter. När du lär dig en ny uppgift kan förändringar i viktiga parametrar sedan bestraffas, vilket effektivt förhindrar att viktiga kunskaper relaterade till tidigare uppgifter skrivs över. Vidare visar vi en intressant koppling mellan en lokal version av vår metod och Hebbs regel, som är en modell för inlärningsprocessen i hjärnan. Vi testar vår metod på en sekvens av objektigenkänningsuppgifter och på det utmanande problemet med att lära sig en inbäddning för att förutsäga < subjekt, predikat, objekt> trillingar. Vi visar den senaste prestandan och, för första gången, förmågan att anpassa betydelsen av parametrar baserade på omärkta data till vad nätverket behöver (inte) att glömma, vilket kan variera beroende på testförhållanden.
Minnesmedvetna synapser (MAS) REF tillämpade lutning av den inlärda funktionen med avseende på parametern som vikten av synapsen.
4,254,748
Memory Aware Synapses: Learning what (not) to forget
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,678
Grafer används ofta för att modellera verkliga objekt och deras relationer, och stora grafdatauppsättningar är vanliga inom många tillämpningsområden. För att förstå de underliggande egenskaperna hos stora grafer, grafsammanfattning tekniker är kritiska. Befintliga grafsammanfattningsmetoder är dock främst statistiska (studiestatistik såsom gradfördelningar, humleplot och klusterkoefficienter). Dessa statistiska metoder är mycket användbara, men besluten i sammanfattningarna är svåra att kontrollera. I det här dokumentet introducerar vi två databasliknande operationer för att sammanfatta grafer. Liksom OLAP-stilen aggregeringsmetoder som gör det möjligt för användare att borra ner eller rulla upp för att styra upplösningen av summering, våra metoder ger en analog funktionalitet för stora grafdataset. Den första åtgärden, kallad SNAP, producerar en sammanfattande graf genom att gruppera noder baserat på användarvalda nodattribut och relationer. Den andra operationen, som kallas k-SNAP, gör det dessutom möjligt för användare att kontrollera upplösningar av sammanfattningar och ger "borra ner" och "roll-up" förmåga att navigera genom sammanfattningar med olika upplösningar. Vi föreslår en effektiv algoritm för att utvärdera SNAP-operationen. Dessutom bevisar vi att k-SNAP-beräkningen är NPfullständig. Vi föreslår två heuristiska metoder för att approximera k-SNAP-resultaten. Genom omfattande experiment på en mängd olika verkliga och syntetiska datauppsättningar visar vi hur effektiva och effektiva de föreslagna metoderna är.
SNAP REF är en algoritm för att ungefär beskriva strukturen och innehållet i grafdata genom att gruppera noder baserat på användarvalda nodattribut och relationer.
15,850,185
Efficient aggregation for graph summarization
{'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,679
Konvolutionella neurala nätverk är kapabla att lära sig kraftfulla representationsutrymmen, som är nödvändiga för att hantera komplexa inlärningsuppgifter. Men på grund av den modellkapacitet som krävs för att fånga sådana representationer, är de ofta mottagliga för överutrustning och kräver därför korrekt legalisering för att generalisera väl. I detta papper visar vi att den enkla regulariseringstekniken för att slumpmässigt maskera ut kvadratområden av inmatning under träning, som vi kallar cutout, kan användas för att förbättra robustheten och övergripande prestanda av konvolutionella neurala nätverk. Denna metod är inte bara extremt enkel att implementera, utan vi visar också att den kan användas tillsammans med befintliga former av dataförstärkning och andra regularizers för att ytterligare förbättra modellens prestanda. Vi utvärderar denna metod genom att tillämpa den på aktuella toppmoderna arkitekturer på CIFAR-10-, CIFAR-100- och SVHN-datauppsättningar, vilket ger nya toppmoderna resultat utan några extra beräkningskostnader. Vi visar också förbättrad prestanda i lågdatasystemet på STL-10-datasetet.
Cutout REF ) är en form av dataförstärkning som slumpmässigt maskerar ut en del av inmatningen under utbildningen, som kan anses öka datauppsättningen med ocklusioner.
23,714,201
Improved Regularization of Convolutional Neural Networks with Cutout
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,680
End-to-end dialogsystem, där alla komponenter lärs samtidigt, har nyligen fått uppmuntrande framgångar. Dessa handlade dock främst om samtal relaterade till chit-chat utan något tydligt mål och för vilka utvärdering är svårt. I detta dokument föreslås en uppsättning uppgifter för att testa kapaciteten hos sådana system på målorienterade dialoger, där måluppfyllelse säkerställer ett väldefinierat mått på prestanda. Inbyggd i samband med restaurangreservation, våra uppgifter kräver att manipulera meningar och symboler, för att korrekt föra samtal, utfärda API-samtal och använda resultaten av sådana samtal. Vi visar att ett end-to-end dialogsystem baserat på Memory Networks kan nå lovande, men ändå ofullständiga, prestanda och lära sig att utföra icke-triviala operationer. Vi bekräftar dessa resultat genom att jämföra vårt system med en handgjord slot-fyllning baslinje på data från den andra Dialog State Tracking Challenge (Handerson et al., 2014a). För närvarande är de mest användbara programmen för dialogsystem målorienterade och transaktionsinriktade: systemet förväntas förstå en användares begäran och slutföra en relaterad uppgift med ett tydligt mål inom
I REF föreslås ett minnesnätverk för att anpassa ett end-to-end-system till en uppgiftsorienterad dialog.
2,129,889
Learning End-to-End Goal-Oriented Dialog
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,681
Abstrakt. I detta papper visar vi att en klassisk optisk flödesteknik av Nagel och Enkelmann (1986, IEEE Trans. Mönster Anal. Mach, det är jag. Berätta, Vol. 8 s. 565-593) kan betraktas som en tidig anisotrop diffusionsmetod med en diffusions tensor. Vi introducerar tre förbättringar i modellen formulering som (i) undvika inkonsekvenser som orsakas av att centrera ljusstyrkan term och släthet termen i olika bilder, (ii) använda en linjär skala-rymd fokusering strategi från grova till fina skalor för att undvika konvergens till fysiskt irrelevanta lokala minima, och (iii) skapa en energifunktion som är invariant under linjär ljusstyrka förändringar. Att tillämpa en gradient nedstigningsmetod på den resulterande energifunktionen leder till ett system av diffusionsreaktionsekvationer. Vi bevisar att detta system har en unik lösning under realistiska antaganden om de ursprungliga uppgifterna, och vi presenterar ett effektivt linjärt implicit numeriskt system i detalj. Vår metod skapar flödesfält med 100 % densitet över hela bilddomänen, den är robust under ett stort antal parametervariationer, och den kan återställa förskjutningsfält som ligger långt bortom de typiska enpixelgränser som är karakteristiska för många differentialmetoder för att bestämma optiskt flöde. Vi visar att den presterar bättre än de optiska flödesmetoderna med 100 % densitet som utvärderas av Barron et al. (1994, Int.)............................................................................................................... Det är J. Comput. Vision, Vol. 12, s. 12; svensk specialutgåva, område 5, volym 5, s. (se avsnitt 4. 3 och 4. 4 i bilaga I till förordning (EU) nr 43- 47). Vår programvara är tillgänglig från Internet.
Alvarez et al:s arbete. REF var förmodligen den första att notera att den vanliga grova-till-fina metoden kanske inte är tillräcklig och föreslog att den skulle ändras med hjälp av en linjär skal-rymd-strategi från grova till fina skalor för att undvika konvergens till felaktiga lokala minima.
18,560,227
Reliable Estimation of Dense Optical Flow Fields with Large Displacements
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,682
Abstrakt. Detta papper beskriver en teknik som väljer, från en stor uppsättning testingångar, en liten delmängd som sannolikt avslöjar fel i den programvara som testas. Tekniken tar ett program eller programkomponent, plus en uppsättning korrekta exekveringar, från observationer av programvaran körs korrekt, eller från en befintlig testsvit som en användare vill förbättra. Tekniken ger först en operativ modell av programvarans drift. Därefter, ingångar vars operativa mönster av utförande skiljer sig från modellen på specifika sätt tyder på fel. Dessa ingångar minskas ytterligare genom att endast välja en input per operativt mönster. Resultatet är en liten del av de ursprungliga ingångar, anses av tekniken som mest sannolikt att avslöja fel. Tekniken kan därför också ses som en feldetekteringsteknik. I dokumentet beskrivs ytterligare två tekniker som kompletterar urvalet av testindata. Den ena är en teknik för att automatiskt producera ett orakle (en uppsättning påståenden) för en provingång från den operativa modellen, vilket omvandlar testingången till ett testfall. Den andra är en klassificeringsstyrd testinmatningsteknik som också använder operativa modeller och mönster. När man genererar ingångar filtrerar man bort kodsekvenser som sannolikt inte kommer att bidra till lagliga ingångar, vilket förbättrar effektiviteten i sökandet efter felavslöjande ingångar. Vi har implementerat dessa tekniker i Eclat-verktyget, som genererar enhetstester för Javaklasser. Eclats inmatning är en uppsättning klasser att testa och ett exempel program exekvering-say, en godkänd testsvit. Eclats utdata är en uppsättning JUnit-testfall som var och en innehåller en potentiellt felavvisande indata och en uppsättning påståenden som minst ett av dem misslyckas med. I våra experiment, Eclat genererade framgångsrikt ingångar som avslöjade fel-avslöjande beteende; vi har använt Eclat för att avslöja verkliga fel i program. De ingångar den väljer som felavvisande är en storleksordning som är lika sannolik att avslöja ett fel som alla genererade ingångar.
Pacheco REF presenterar en teknik som väljer från en stor uppsättning testingångar en liten delmängd som sannolikt avslöjar fel i den programvara som testas.
12,356,625
Eclat: Automatic generation and classification of test inputs
{'venue': 'In 19th European Conference Object-Oriented Programming', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,683
Abstrakt. I mobila trådlösa nätverk kan tredje part spåra lokaliseringen av mobila noder genom att övervaka de pseudonymer som används för identifiering. En ofta föreslagen lösning för att skydda platsen integritet för mobila noder tyder på att ändra pseudonymer i regioner som kallas mix zoner. I detta dokument föreslår vi en ny mätmetod baserad på rörlighetsprofilerna för mobila noder för att utvärdera blandningseffektiviteten i möjliga blandningszoner. Sedan, eftersom platsen integritet uppnås med mixzoner beror på deras placering i nätverket, analyserar vi den optimala placeringen av blandningszoner med kombinatoriska optimeringstekniker. Den föreslagna algoritmen maximerar den uppnådda platsen integritet i systemet och tar hänsyn till den kostnad som induceras av mix zoner till mobila noder. Med hjälp av simuleringar visar vi att den placering som rekommenderas av vår algoritm avsevärt minskar motståndarens spårningsframgång.
I REF har en formulering för optimal placering av blandningszoner i en färdplan diskuterats.
18,607,907
On the Optimal Placement of Mix Zones
{'venue': 'Privacy Enhancing Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,684
Abstrakt. Den snabba utvecklingen av mänskliga genomstudier leder till en stark efterfrågan på aggregerade mänskliga DNA-data (t.ex. allelfrekvenser, teststatistik osv.).), vars spridning till allmänheten har hindrats av oron för privatlivet. Tidigare forskning visar att det är möjligt att identifiera närvaron av vissa deltagare i en studie från sådana data, och i vissa fall till och med helt återställa deras DNA-sekvenser. En kritisk fråga blir därför hur man ska utvärdera en sådan risk på enskilda datauppsättningar och avgöra när de är säkra att släppa ut. I detta dokument rapporterar vi vår forskning som gör det första försöket att ta itu med denna fråga. Vi identifierade först utrymmet för problemet med aggregat-data-release, genom att undersöka gemensamma typer av aggregerade data och de typiska hot de står inför. Sedan genomförde vi en fördjupad studie av olika scenarier för angrepp på olika typer av data, som belyser flera grundläggande frågor inom detta problemområde. Särskilt fann vi att angrepp på aggregerade data är svåra i allmänhet, eftersom motståndaren ofta inte har tillräckligt med information och behöver för att lösa NP-kompletta eller NPhard problem. Å andra sidan erkänner vi att attackerna kan lyckas under vissa omständigheter, särskilt när problemets lösningsområde är litet. Baserat på en sådan förståelse föreslår vi ett riskskalasystem och en metod för att bestämma när man ska släppa en aggregerad datauppsättning och när man inte ska göra det. Vi använde också riktiga humangenomdata för att verifiera våra fynd.
Zhou m.fl. REF studerade riskerna med att släppa aggregerade genomiska data och visade att individer som deltog i en sådan undersökning lätt kan identifieras och i vissa fall kan deras DNA-sekvenser återvinnas helt.
6,753,412
To Release Or Not To Release: Evaluating Information Leaks in Aggregate Human-Genome Data
{'venue': 'ESORICS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,685
Vi avgör ekvivalensen mellan problemet med att slå en polyhedral satt vid omloppsbana för en linjär karta och skärningspunkten mellan ett vanligt språk och ett språk av permutationer av binära ord (P B-realizability problem). Definibiliteten av de båda problemen är för närvarande okänd och den första är en enkel generalisering av det berömda skolemproblemet och icke-negativitetsproblemet i teorin om linjära återkommande sekvenser. För att visa en "gränslinjestatus" för P B-förverkligbarhetsproblem när det gäller beräkningsbarhet, presenterar vi några avgörande och obeslutsamma problem som har ett nära samband med detta. Detta dokument är en utökad version av tidskriftspublikationen [16] och innehåller ytterligare några resultat.
I REF, Polyhedron Hitting Problem är relaterat till beslutsproblem i formell språkteori.
17,075,442
Orbits of linear maps and regular languages
{'venue': 'Vyalyi M., Tarasov S. Orbits of linear maps and regular languages. Discrete analysis and operations research. 2010. Vol. 17, No 6. P. 20--49 (in Russian)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,686
Abstract-Software återanvändning gör det möjligt för utvecklare att dra nytta av tidigare prestationer och underlättar betydande förbättringar av programvarans produktivitet och kvalitet. Programvaran återanvänder katalyserar produktivitetsförbättringar genom att undvika nyutveckling och kvalitetsförbättringar genom att integrera komponenter vars tillförlitlighet redan har fastställts. Denna studie tar upp en central forskningsfråga som ligger till grund för återanvändning av programvara – vilka faktorer kännetecknar framgångsrik återanvändning av programvara i storskaliga system? Forskningsstrategin är att undersöka, analysera och utvärdera programvara som återanvändas empiriskt av gruvprogramarkiv från en NASA-programvaruutvecklingsmiljö som aktivt återanvänder programvara. Denna programvara miljö framgångsrikt följer principer för återanvändning-baserad programvara utveckling för att uppnå en genomsnittlig återanvändning på 32 procent per projekt, vilket är den genomsnittliga mängden programvara antingen återanvändas eller ändras från tidigare system. Vi undersöker arkiven för 25 mjukvarusystem som sträcker sig från 3 000 till 112 000 källlinjer från denna programvarumiljö. Vi analyserar fyra klasser av programvarumoduler: moduler som återanvänds utan revidering, moduler som återanvänds med liten revidering (< 25 procent revidering), moduler som återanvänds med större revidering (25 procent revision), och nyutvecklade moduler. Vi tillämpar icke-parametriska statistiska modeller för att jämföra många utvecklingsvariabler över de 2,954 mjukvarumodulerna i systemen. Vi identifierar två kategorier av faktorer som kännetecknar framgångsrik återanvändningsbaserad mjukvaruutveckling av storskaliga system: moduldesignfaktorer och modulimplementeringsfaktorer. Vi utvärderar också felfrekvensen för de återanvända, modifierade och nyutvecklade modulerna. De moduldesignfaktorer som kännetecknar modulåteranvändning utan revidering var (efter normalisering efter storlek i källlinjer): få samtal till andra systemmoduler, många samtal till allmännyttiga funktioner, få input-output parametrar, få läsningar och skriver, och många kommentarer. Modulens implementationsfaktorer som karakteriserar modulåteranvändning utan revidering var små i källlinjer och (efter normalisering efter storlek i källlinjer): låg utvecklingssatsning och många uppdragsförklaringar. Modulerna som återanvänts utan revidering hade de minsta felen, de minsta felen per källlinje och de lägsta felkorrigeringsinsatserna. Modulerna återanvänds med större revidering hade den högsta felkorrigering ansträngning och högsta felisolering ansträngning samt de flesta förändringar, de flesta förändringar per källlinje, och högsta förändring korrigering ansträngning. Sammanfattningsvis beskriver vi framtida forskningsriktlinjer som bygger på dessa program återanvändning idéer och strategier.
Selbys senaste experimentella studie har identifierat två kategorier av faktorer som kännetecknar framgångsrik återanvändningsbaserad mjukvaruutveckling av storskaliga system: moduldesignfaktorer och modulimplementeringsfaktorer REF.
9,025,096
Enabling reuse-based software development of large-scale systems
{'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']}
82,687
I detta dokument presenteras en ny metod för intresseregionbeskrivning. Vi antog idén att uppkomsten av en intresseregion kan kännetecknas väl av fördelningen av dess lokala särdrag. Den mest kända deskriptor som bygger på denna idé är SIFT-deskriptorn som använder lutning som lokal funktion. Hittills har befintliga texturfunktioner inte i stor utsträckning utnyttjats i samband med regional beskrivning. I detta papper introducerar vi en ny texturfunktion som kallas center-symmetriskt lokalt binärt mönster (CS-LBP) som är en modifierad version av den välkända lokala binära mönster (LBP) funktionen. För att kombinera styrkorna hos SIFT och LBP använder vi CS-LBP som den lokala funktionen i SIFT-algoritmen. Den resulterande deskriptorn kallas CS-LBP-deskriptorn. I klassificeringsförsöken för matchnings- och objektkategori utför vår deskriptor gynnsamt jämfört med SIFT. Dessutom är CS-LBP-deskriptorn beräkningsmässigt enklare än SIFT.
I det glesa matchande experimentet, Heikkilä et al. har visat att LBP-deskriptorn presterar gynnsamt jämfört med SIFT REF ).
6,459,076
Description of Interest Regions with Local Binary Patterns
{'venue': 'Pattern Recognit.', 'journal': 'Pattern Recognit.', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,688
Vi studerar flera varianter av samordnat samförstånd i dynamiska nätverk. Vi utgår från en synkron modell, där kommunikationskurvan för varje omgång väljs av en motståndare i värsta fall. Nätverkstopologin är alltid ansluten, men kan ändras helt från en runda till en annan. Modellen fångar upp mobila och trådlösa nätverk, där kommunikation kan vara oförutsägbar. I detta sammanhang studerar vi de grundläggande problemen med ett eventuellt, samtidigt och samordnat samförstånd, liksom deras förhållande till andra distribuerade problem, såsom att bestämma nätverkets storlek. Vi visar att i avsaknad av en bra initial övre gräns på nätverkets storlek, är det slutliga samförståndet lika svårt som att beräkna deterministiska funktioner av indata, t.ex. det minsta eller högsta antalet ingångar till noderna. Vi ger också en algoritm för att beräkna sådana funktioner som är optimala i varje utförande. Därefter visar vi att samtidigt samförstånd aldrig kan uppnås i mindre än n − 1 rundor i varje utförande, där n är storleken på nätverket; följaktligen är samtidig konsensus lika svårt som att beräkna en övre gräns för antalet noder i nätverket. För Δ-koordinerat samförstånd visar vi att om förhållandet mellan noder med indata 0 och indata 1 begränsas bort från 1, är det möjligt att bestämma i tid n − på ( Δ nΔ), där Δ begränsar tiden från det första beslutet tills alla noder bestämmer. Om den dynamiska grafen har diametern D, är tiden att bestämma min {O(nD/Δ), n − (nΔ/D)}, även om D inte är känd i förväg. Slutligen visar vi att (a) det finns en dynamisk graf så att ingen nod kan bestämma innan tiden n − O(Δ 0.28 n 0,72 ), och (b) för någon diameter D = O(Δ), det finns en körning med diameter D där ingen nod kan bestämma innan tiden och (nD/Δ). Såvitt vi vet utgör vårt arbete den första studien av Δ-koordinerat samförstånd i allmänna grafer.
Inom ramen för avtalsproblem i dynamiska nätverk har olika versioner av samordnat samförstånd (där alla noder måste komma överens) beaktats av Kuhn m.fl. i Ref.
17,462,891
Coordinated consensus in dynamic networks
{'venue': "PODC '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,689
Abstract-Data Collection betraktas som ett inneboende utmanande problem för Vehicular Ad-Hoc nätverk. Här föreslås ett adaptivt dataprotokoll med hjälp av rEinforcement Learning (ADOPEL) för VANET. Den bygger på en distribuerad Qlearning-teknik som gör insamlingen mer reaktiv till noder rörlighet och topologi förändringar. En belöningsfunktion tillhandahålls och definieras för att ta hänsyn till förseningen och antalet aggregatable paket. Simuleringsresultat bekräftar effektiviteten i vår teknik jämfört med en icke-lärande version och visar den kompromiss som uppnåtts mellan fördröjnings- och insamlingsförhållandet.
Soua m.fl. Föreslagna ADOPEL protokoll baserat på en distribuerad Q inlärningsteknik för att göra insamlingen mer reaktiv till noder rörlighet och topologi förändringar REF.
7,917,068
Adaptive data collection protocol using reinforcement learning for VANETs
{'venue': '2013 9th International Wireless Communications and Mobile Computing Conference (IWCMC)', 'journal': '2013 9th International Wireless Communications and Mobile Computing Conference (IWCMC)', 'mag_field_of_study': ['Computer Science']}
82,690
Toppmodernt namngivna system för erkännande av företag bygger i hög grad på handgjorda funktioner och domänspecifika kunskaper för att på ett effektivt sätt kunna dra lärdom av den lilla, övervakade utbildningskorporan som finns tillgänglig. I detta papper introducerar vi två nya neurala arkitekturer-en baserad på dubbelriktade LSTMs och villkorliga slumpmässiga fält, och den andra som konstruerar och etiketter segment med en övergångsbaserad strategi inspirerad av skift-reducera parsers. Våra modeller bygger på två informationskällor om ord: teckenbaserade ordrepresentationer från övervakade korpus och oövervakade ordrepresentationer från oannoterade korpora. Våra modeller får toppmoderna prestationer i NER på fyra språk utan att använda sig av några språkspecifika kunskaper eller resurser som t.ex. åskådare.
REF uppnår den senaste prestandan på fyra språk genom att utbilda modeller baserade på BiLSTM och CRF genom att använda ordrepresentationer från onoterad text och teckenrepresentationer från en noterad text.
6,042,994
Neural Architectures for Named Entity Recognition
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,691
De flesta befintliga maskininlärningsklasser är mycket sårbara för kontradiktoriska exempel. Ett kontradiktoriskt exempel är ett urval av indata som har modifierats mycket lite på ett sätt som är avsett att få en maskin som lär sig klassificering att felklassificera den. I många fall kan dessa modifieringar vara så subtila att en mänsklig iakttagare inte ens lägger märke till ändringen alls, men klassifieraren gör ändå ett misstag. Motståndskraftiga exempel utgör säkerhetsproblem eftersom de kan användas för att utföra en attack på maskininlärningssystem, även om motståndaren inte har någon tillgång till den underliggande modellen. Hittills har allt tidigare arbete antagit en hotmodell där motståndaren kan mata in data direkt i maskininlärningsklassen. Detta är inte alltid fallet för system som fungerar i den fysiska världen, till exempel de som använder signaler från kameror och andra sensorer som en ingång. Detta dokument visar att även i sådana fysiska världsscenarier är maskininlärningssystem sårbara för kontradiktoriska exempel. Vi demonstrerar detta genom att mata in kontradiktoriska bilder från mobilkamera till en ImageNet Inception-klassificering och mäta systemets klassificeringsnoggrannhet. Vi finner att en stor del av kontradiktoriska exempel klassificeras felaktigt även när de uppfattas via kameran.
Kurakin m.fl. presenterade att ML-modeller fortfarande är sårbara för kontradiktoriska exempel i fysiska scenarier genom att mata en telefonkamera fångad kontrarimal bild till en Ima-geNet classifier REF.
1,257,772
Adversarial examples in the physical world
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,692
Sammanfattning av denna webbsida: I den här artikeln behandlar vi Quality-of-Service (QoS)-aware routing problem för Body Sensor Networks (BSNs) i fördröjning och tillförlitlighet domäner. Vi föreslår en data-centric multiobjektive QoS-Aware routing protokoll, kallas DMQoS, som underlättar systemet för att uppnå anpassade QoS-tjänster för varje trafikkategori differentierad efter de genererade datatyper. Den använder modulär designarkitektur där olika enheter fungerar i samordning för att tillhandahålla flera QoS-tjänster. Deras verksamhet utnyttjar geografiska platser och QoS prestanda grannnoder och implementerar en lokaliserad hop-by-hop routing. Dessutom säkerställer protokollet (nästan) en homogen energiavledningshastighet för alla routing noder i nätverket genom en multiobjektiv Lexicographic Optimization-baserad geografisk vidarebefordring. Vi har genomfört omfattande simuleringar av det föreslagna protokollet, och resultaten visar att DMQoS har betydande prestandaförbättringar över flera state-of-the-art metoder.
DMQoS REF utnyttjar den geografiska platsen och föreslår ett multiobjektivt QoS routing protokoll för biomedicinska trådlösa sensornätverk.
2,802,376
Data-Centric Multiobjective QoS-Aware Routing Protocol for Body Sensor Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Engineering']}
82,693
Ett trådlöst body area-nätverk (WBAN) hänvisar till en topologi av miniatyriserade inbyggda system i och på en mänsklig kropp med hjälp av trådlös kommunikationsteknik. Med hjälp av WBAN samlas human body data in för att användas inom olika områden, inklusive grundläggande hälsoinformation insamling, förbättring av atletisk kapacitet, och systematisk hantering av patienter. För att effektivt kunna använda systemet i sådana områden krävs ett fel- eller onormala symptomövervakningssystem för de sensorer som bildas i människokroppen. Eftersom insamling av data från en viss idrottsman kan tas om hand av många människor, fel eller fel på sensorer kan omedelbart behandlas. Men för patienter med en mängd olika sjukdomar krävs det mycket ansträngning och det tar tid att koncentrera sig på den enskilda hälsoinformationen. Dessutom, när en patient tas om hand, kan andra patienter försummas. I detta dokument föreslås ett visuellt övervakningssystem för feltolerans (VMSFT) som kan övervaka patienter i en WBAN samtidigt som det också märker fel på sensorerna omedelbart. VMSFT kan övervaka personer som bildar en WBAN och härleder en sensors fel genom de insamlade uppgifterna. Om VMSFT är sammankopplat med akutmottagningen är det möjligt att ta hand om patienterna proaktivt.
Feltolerans på WBAN infördes i REF som kallas visuellt övervakningssystem i syfte att ta hand om patienterna på ett proaktivt sätt.
37,705,006
Visual Scheme Monitoring of Sensors for Fault Tolerance on Wireless Body Area Networks with Cloud Service Infrastructure
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
82,694
Otillräckliga eller till och med otillgängliga utbildningsdata för nya klasser är en stor utmaning för många klassificeringsuppgifter, inklusive textklassificering. Att erkänna textdokument från klasser som aldrig har setts i inlärningsstadiet, så kallad noll-shot textklassificering, är därför svårt och endast begränsade tidigare arbeten hanterade detta problem. I detta dokument föreslår vi en tvåfasram tillsammans med dataförstärkning och funktionsförstärkning för att lösa detta problem. Fyra typer av semantisk kunskap (ordinbäddningar, klassbeskrivningar, klasshierarki och ett allmänt kunskapsdiagram) införlivas i det föreslagna ramverket för att på ett effektivt sätt hantera fall av osynliga klasser. Experimentella resultat visar att varje och en kombination av de två faserna uppnår den bästa övergripande noggrannheten jämfört med baslinjer och nya metoder för att klassificera verkliga texter under nollresultatscenariot.
I REF infördes en ram i två faser för noll-sprängd textklassificering.
88,522,878
Integrating Semantic Knowledge to Tackle Zero-shot Text Classification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,695
Cloud computing är en nyutvecklad datorinfrastruktur som bygger på de senaste landvinningarna inom olika forskningsområden, såsom Grid computing, Serviceorienterad databehandling, hantering av affärsprocesser och virtualisering. En viktig egenskap hos molnbaserade tjänster är tillhandahållandet av icke-funktionella garantier i form av servicenivåavtal, såsom garantier om utförandetid eller pris. På grund av systemfel, ändrade arbetsförhållanden, hård- och programvara misslyckanden, etablerade SLA kan dock brytas. För att undvika kostsamma överträdelser av SLA krävs flexibla och anpassningsbara strategier för att uppnå SLA. I detta dokument presenterar vi en självhanterbar arkitektur för SLA-baserad servicevirtualisering som ger ett sätt att underlätta interoperabla tjänsteutföranden i en mångsidig, heterogen, distribuerad och virtualiserad värld av tjänster. Vi visar i detta dokument att kombinationen av förhandling, förmedling och distribution med hjälp av SLA-medvetna tillägg och autonoma dataprinciper krävs för att uppnå tillförlitlig och effektiv servicedrift i distribuerade miljöer.
En arkitektur för SLA-baserad servicevirtualisering och ger därmed ett enkelt interoperabelt utförande av tjänster i en mångsidig, distribuerad och heterogen värld av tjänster REF.
803,252
An interoperable and self-adaptive approach for SLA-based service virtualization in heterogeneous Cloud environments
{'venue': 'Future Gener. Comput. Syst.', 'journal': 'Future Gener. Comput. Syst.', 'mag_field_of_study': ['Computer Science']}
82,696
Sedan uppfinningen av word2vec [28, 29], har hoppa-gram modellen avsevärt avancerat forskningen av nätverk inbäddning, såsom den senaste utvecklingen av DeepWalk, LINE, PTE, och node2vek metoder. I detta arbete visar vi att alla ovan nämnda modeller med negativ provtagning kan förenas i matris factorization ram med slutna former. Vår analys och bevis avslöjar att: (1) DeepWalk [31] empiriskt producerar en lågvärdig omvandling av ett näts normaliserade Laplacian-matris; (2) LINE [37] är i teorin ett specialfall av DeepWalk när storleken på hörnens sammanhang är satt till en; (3) Som en förlängning av LINE, PTE [36] kan ses som den gemensamma faktoriseringen av flera nätverk Laplacians; (4) node2vec [16] faktoriserar en matris relaterad till den stationära distributionen och övergångssannolikheten tensor av en 2: a ordningen slumpmässig gång. Vi tillhandahåller vidare de teoretiska kopplingarna mellan skip-gram-baserade nätverk inbäddande algoritmer och teorin om graf Laplacian. Slutligen presenterar vi NetMF metod 1 samt dess approximation algoritm för datornätverk inbäddning. Vår metod erbjuder betydande förbättringar över DeepWalk och LINE för konventionella nätverksbrytningsuppgifter. Detta arbete lägger den teoretiska grunden för hoppa-gram baserade nätverk inbäddning metoder, vilket leder till en bättre förståelse av latent nätverk representation lärande.
Dessutom förenar NetMF REF DeepWalk, LINE och node2vek.
3,952,914
Network Embedding as Matrix Factorization: Unifying DeepWalk, LINE, PTE, and node2vec
{'venue': "WSDM '18", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,697
Detta dokument beskriver en ny Bayesiansk strategi för oövervakad ämnessegmentering. Oöverträffade system för denna uppgift drivs av lexikal sammanhållning: tendensen hos välformade segment att inducera en kompakt och konsekvent lexikal distribution. Vi visar att lexisk sammanhållning kan placeras i ett Bayesianskt sammanhang genom att modellera orden i varje ämne segment som drar från en multinomial språkmodell i samband med segmentet; maximera observationsannolikheten i en sådan modell ger en lexiskt kohesiv segmentering. Detta står i kontrast till tidigare tillvägagångssätt, som byggde på handgjorda sammanhållningsmått. Det Bayesianska ramverket ger ett principfast sätt att införliva ytterligare funktioner såsom köfraser, en kraftfull indikator på diskursstruktur som inte tidigare har använts i oövervakade segmenteringssystem. Vår modell ger konsekventa förbättringar över en rad toppmoderna system på både text- och taldatauppsättningar. Vi visar också att både entropibaserad analys och en välkänd tidigare teknik kan härledas som specialfall av det Bayesianska ramverket.
Andra kombinerar entropi med en Bayesian strategi för oövervakad ämne segmentering REF.
1,967,279
Bayesian Unsupervised Topic Segmentation
{'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,698
Maskininlärningsmodeller baserade på neurala nätverk och djupinlärning antas snabbt för många ändamål. Vad dessa modeller lär sig, och vad de kan dela, är en viktig fråga när utbildningsuppgifterna kan innehålla hemligheter och modellerna är offentliga, t.ex. när en modell hjälper användare att komponera textmeddelanden med hjälp av modeller som är utbildade på alla användares meddelanden. Detta papper presenterar exponering, en enkel att beräkna metrisk som kan tillämpas på någon djupt lärande modell för att mäta memorering av hemligheter. Med hjälp av denna metriska visar vi hur man extraherar dessa hemligheter effektivt med hjälp av Black-box API-åtkomst. Vidare visar vi att oavsiktlig memorering sker tidigt, inte beror på överbemanning, och är en ihållande fråga för olika typer av modeller, hyperparametrar, och utbildningsstrategier. Vi experimenterar med både verkliga modeller (t.ex. en toppmodern översättningsmodell) och dataset (t.ex. Enrons e-postdataset, som innehåller användares kreditkortsnummer) för att visa både nyttan av att mäta exponering och förmågan att extrahera hemligheter. Slutligen anser vi att många försvar, finna några ineffektiva (som legalisering), och andra att sakna garantier. Genom att omedelbart införa vår egen differentierade privata återkommande modell bekräftar vi dock att problemet kan lösas med stor nytta genom att på lämpligt sätt investera i användningen av den senaste tekniken.
Carlini m.fl. I Ref föreslogs ett mått för att mäta sårbarheten hos modeller för djupt lärande.
3,459,837
The Secret Sharer: Measuring Unintended Neural Network Memorization&Extracting Secrets
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,699
Vi föreslår en klass av integritet begränsningar för relationsdatabaser, kallas villkorliga funktionella beroenden (CFDs), och studera deras tillämpningar i datarengöring. I motsats till traditionella funktionella beroenden (FDs) som utvecklats främst för schemadesign, CFDs syftar till att fånga konsekvensen av data genom att genomdriva bindningar av semantiskt relaterade värden. För statisk analys av CFD-kontrakt undersöker vi överensstämmelseproblemet, vilket är att avgöra om det finns en icke-tom databas som uppfyller en viss uppsättning av CFD-kontrakt, och det implicita problemet, vilket är att avgöra om en uppsättning CFD-kontrakt innebär en annan CFD. Vi visar att även om någon uppsättning av övergångs FDs är trivialt konsekvent, konsekvens problemet är NP-komplett för CFDs, men det är i PTIME när antingen databasen schema är fördefinierad eller inga attribut som är involverade i CFDs har en ändlig domän. För konsekvensanalysen av CFDs tillhandahåller vi ett inferencesystem som liknar Armstrongs axioms för FDs, och visar att implikationsproblemet är coNP-kompletterat för CFDs i motsats till den linjära tids komplexiteten för deras traditionella motsvarighet. Vi presenterar också en algoritm för att beräkna ett minimalt omslag av en uppsättning CFDs. Eftersom CFD-kontrakt tillåter databindningar kan i vissa fall CFD-kontrakt vara fysiskt stora, vilket komplicerar upptäckten av överträdelser av restriktioner. Vi utvecklar tekniker för att upptäcka CFD överträdelser i SQL samt nya tekniker för att kontrollera flera begränsningar genom en enda fråga. Vi tillhandahåller också stegvisa metoder för att kontrollera CFD som svar på ändringar i databasen. Vi verifierar experimentellt effektiviteten hos våra CFD-baserade metoder för att upptäcka inkonsekvens. Detta arbete ger inte bara en begränsningsteori för CFDs utan är också ett steg mot en praktisk begränsningsbaserad metod för att förbättra datakvaliteten.
CFD upptäckt problem har hög komplexitet; det är känt för att vara mer komplicerat än konsekvenserna problemet, som redan är coNP-fullständig REF.
12,486,990
Conditional functional dependencies for capturing data inconsistencies
{'venue': 'TODS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,700
I detta dokument föreslås en lösning för automatisk upptäckt och spårning av mänskliga rörelser i bildsekvenser. På grund av komplexiteten i människokroppen och dess rörelse är automatisk upptäckt av 3D-människans rörelse fortfarande ett öppet och viktigt problem. Befintliga metoder för automatisk detektering och spårning fokuserar på 2D-signaler och utnyttjar normalt objektets utseende (färgfördelning, form) eller kunskap om en statisk bakgrund. Däremot utnyttjar vi 2D optisk flödesinformation som ger rika beskrivande signaler, samtidigt som vi är oberoende av objekt och bakgrundsutseende. För att representera människors optiska flödesmönster ur godtyckliga synvinklar utvecklar vi en ny representation av människans rörelse med hjälp av lågdimensionella spatiotemporala modeller som lärs med hjälp av rörelsefångningsdata från människor. Förutom mänsklig rörelse (förgrunden) modellerar vi probabilistiskt rörelsen av generiska scener (bakgrunden); dessa statistiska modeller definieras som Gibbs-fält specificerade från första ordningens derivat av rörelseobservationer. Detektion och spårning finns i en principiell Bayesiansk ram som innebär beräkning av en bakre sannolikhetsfördelning över modellparametrarna (dvs. platsen och typen av mänsklig rörelse) med tanke på en sekvens av optiska flödesobservationer. Partikelfiltrering används för att representera och förutsäga denna icke-gaussiska bakre fördelning över tiden. Modellparametrarna för prov från denna distribution är relaterade till poseparametrarna för en 3D-ledd modell (t.ex. de ungefärliga ledvinklarna och rörelseriktningen). Således visar sig metoden vara lämplig för att initiera mer komplexa probabilistiska modeller av mänsklig rörelse. Som visas av experiment på verkliga bildsekvenser, vår metod kan upptäcka och spåra människor under olika synvinklar med komplexa bakgrunder.
Mer lik oss, Fablet och Black REF använder en 3D ledad kropp modell och rörelse fånga data för att projicera 3D kropp rörelse i 2D optiskt flöde.
4,581,209
Automatic Detection and Tracking of Human Motion with a View-Based Representation
{'venue': 'European Conf. On Computer Vision, ECCV’02', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,701
I detta dokument presenteras en detaljerad jämförande ram för att bedöma nyttan av oövervakade ordrepresentationer för att identifiera så kallade implicita samtalsrelationer. Specifikt jämför vi standard en-heta ordpar representationer mot låg-dimensionella sådana baserade på bruna kluster och ord inbäddningar. Vi överväger också olika ord vektorkombination system för att härleda diskursen segment representationer från ord vektorer, och jämföra representationer baserade antingen på alla ord eller begränsad till huvudord. Vårt huvudsakliga resultat är att tätare representationer systematiskt överträffar glesare och ger state-of-the-art prestanda eller högre utan behov av ytterligare handgjorda funktioner.
Ref jämförde olika ordrepresentationer för implicit relationsklassificering.
8,961,026
Comparing Word Representations for Implicit Discourse Relation Classification
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,702
Detta dokument undersöker förbättrad övervakad ordsegmenteringsnoggrannhet med omärkta data. Både storskaliga in-domändata och småskalig dokumenttext beaktas. Vi presenterar en enhetlig lösning för att inkludera funktioner som härrör från omärkta data till en discriminativ inlärningsmodell. För den storskaliga data, vi härleder strängstatistik från Gigaword för att hjälpa en karaktär-baserade segmenter. Dessutom introducerar vi idén om transduktiv, dokument-nivå segmentering, som är utformad för att förbättra systemet återkalla för out-ofvokabulary (OOV) ord som visas mer än en gång i ett dokument. Nya funktioner 1 resulterar i relativa felminskningar på 13,8 % respektive 15,4 % när det gäller F-poäng respektive återkallande av OOV-ord.
REF undersökte hur man kan förbättra noggrannheten hos övervakad ordsegmentering genom att utnyttja de statistikbaserade egenskaperna från stora omärkta in-domänkorpus och det dokument som ska segmenteras.
7,490,669
Enhancing Chinese Word Segmentation Using Unlabeled Data
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,703
Sketch + Färg Genererade resultat Figur 1. En användare kan skissa och klottra färger för att kontrollera djup bildsyntes. Till vänster är en bild som genereras från en handritad skiss. Till höger har flera objekt tagits bort från skissen, en vas har lagts till, och färgen på olika scenelement har begränsats av glesa färgdrag. Nyligen har det funnits flera lovande metoder för att generera realistiska bilder från djupa konvolutionsnätverk. Dessa metoder kringgår den traditionella datorgrafik rendering pipeline och istället generera bilder på pixelnivå genom att lära sig från stora samlingar av foton (t.ex. ansikten eller sovrum). Dessa metoder är dock av begränsad nytta eftersom det är svårt för en användare att kontrollera vad nätet producerar. I detta papper, föreslår vi en djup kontraversariell bildsyntes arkitektur som är betingad på skisserade gränser och glesa färgdrag för att generera realistiska bilar, sovrum, eller ansikten. Vi demonstrerar ett skissbaserat bildsyntessystem som tillåter användare att klottra över skissen för att indikera önskad färg för objekt. Vårt nätverk kan då generera övertygande bilder som uppfyller både färg och skiss begränsningar användaren. Nätverket är feed-forward vilket gör det möjligt för användare att se effekten av sina redigeringar i realtid. Vi jämför med det senaste arbetet med skiss med bildsyntes och visar att vårt arbetssätt kan generera mer realistiska, mer mångsidiga och mer kontrollerbara resultat. Arkitekturen är också effektiv vid användarstyrd färgning av gråskala bilder.
Sangkloy m.fl. REF tog ett steg mot mer kontrollerbar syntes genom att lära sig att generera bilder från indata handritade skisser och ytterligare indata glesa färgdrag.
1,925,189
Scribbler: Controlling Deep Image Synthesis with Sketch and Color
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,704
Abstract-The prestanda i samarbete kommunikation beror på noggrann resursallokering såsom reläval och maktstyrning, men den traditionella centraliserade resursallokering kräver exakta mätningar av kanalstatsinformation (CSI). I detta dokument föreslår vi en distribuerad spel-teoretisk ram över fleranvändarkooperativa kommunikationsnät för att uppnå optimal reläval och maktfördelning utan kunskap om CSI. Ett två-nivå Stackelberg spel används för att gemensamt överväga fördelarna med källnoden och relänoder där källkod noden modelleras som köpare och relänoder modelleras som säljare, respektive. Det föreslagna tillvägagångssättet hjälper inte bara källan att hitta reläerna på relativt bättre platser och "köp" en optimal mängd kraft från reläerna, men också hjälper konkurrerande reläer maximera sina egna verktyg genom att fråga de optimala priserna. Spelet har visat sig konvergera till en unik optimal jämvikt. Dessutom kan det föreslagna systemet för resursfördelning med det distribuerade spelet uppnå samma resultat som systemet med centraliserade system.
Wang m.fl. I REF föreslås en distribuerad spel-teoretisk ram över fleranvändarkooperativa kommunikationsnät för att uppnå optimal urval av reläer och maktfördelning.
6,024,429
Distributed Relay Selection and Power Control for Multiuser Cooperative Communication Networks Using Stackelberg Game
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
82,705
Abstract-Millimeter-våg (mmWave) är lovande teknik för hög datahastighet (multi-Gbps) Wireless Personal Area Networks (WPAN). I detta dokument introducerar vi först begreppet exklusiv region (ER) för att tillåta samtidiga sändningar att utforska den rumsliga multiplexing-vinsten av trådlösa nätverk. Med tanke på de unika egenskaperna hos mmWave-kommunikation och användningen av allsidiga eller riktade antenner, härleder vi ER-förhållandena som säkerställer att samtidiga sändningar alltid kan överträffa seriella TDMA-transmissioner i en mmWave WPAN. Vi föreslår sedan REX, en randomiserad ER-baserad schemaläggning, att bestämma en uppsättning avsändare som kan överföra samtidigt. Dessutom erhålls det förväntade antalet flöden som kan schemaläggas för samtidiga överföringar analytiskt. Omfattande simuleringar genomförs för att validera analysen och visa hur effektivt och ändamålsenligt det föreslagna REX-schemat är. Resultaten bör ge viktiga riktlinjer för framtida spridning av mmWave baserade WPAN. Index Terms-Resource management, exklusiv region, service schemaläggning, rumslig multiplexing vinst, mmWave WPAN.
I REF, är villkoren för samtidig överföring exklusiv region härleds, och REX schemaläggning planeras för att förvärva betydande rumslig återanvändning vinst.
7,032,393
Rex: A randomized EXclusive region based scheduling scheme for mmWave WPANs with directional antenna
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,706
Djupskiktade modeller tränade på ett stort antal märkta prover ökar noggrannheten i många uppgifter. Det är viktigt att tillämpa sådana modeller på olika domäner eftersom det är dyrt att samla in många märkta prover inom olika domäner. Vid oövervakad domänanpassning måste man träna en klassificerare som fungerar bra på en måldomän när den är försedd med märkta källprover och omärkta målprover. Även om många metoder syftar till att matcha distributionerna av käll- och målprover, helt enkelt matcha distributionen kan inte säkerställa noggrannhet på måldomänen. För att lära sig diskriminerande representationer för måldomänen antar vi att artificiell märkning av målprover kan resultera i en god representation. Tri-utbildning utnyttjar tre klassificeringar lika för att ge pseudo-märkningar till omärkta prover, men metoden förutsätter inte märkning av prover som genereras från en annan domän. I detta dokument föreslår vi en asymmetrisk tri-utbildningsmetod för oövervakad domänanpassning, där vi tilldelar pseudo-märkningar till omärkta prover och utbildar neurala nätverk som om de vore äkta etiketter. I vårt arbete använder vi tre nät asymmetriskt. Med asymmetriskt menar vi att två nätverk används för att märka omärkta målprover och att ett nätverk utbildas av proverna för att erhålla objektiva diskriminativa representationer. Vi utvärderar vår metod för sifferigenkännings- och känsloanalysdatauppsättningar. Vår föreslagna metod uppnår toppmoderna prestanda på referensdigitala igenkänningsdatauppsättningar för domänanpassning.
I REF tillämpades en gemensam utbildningsmetod med tre klassificeringar, utbildade med källinformation och överenskomna pseudomärkta målexempel.
12,570,770
Asymmetric Tri-training for Unsupervised Domain Adaptation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,707
Hittills finns det inga helt automatiserade system som tillgodoser samhällets behov av grundläggande språkbehandlingsverktyg för arabisk text. I detta papper presenterar vi en Support Vector Machine (SVM) baserad metod för att automatiskt tokenize (segmentera utanför klitiker), del-ofspeech (POS) tagg och kommentera basfraser (BPs) i arabisk text. Vi anpassar mycket noggranna verktyg som har utvecklats för engelsk text och tillämpar dem på arabisk text. Med hjälp av standard utvärderingsmått, rapporterar vi att SVM-TOK tokenizern uppnår en £ ¢ ¥ ¤ £ och poäng 99.12, SVM-POS tagger uppnår en noggrannhet på 95.49%, och SVM-BP biter ger en ¢ § ¤ £ på 92.08.
REF utför tokenization, POS taggning och basfras bitning med hjälp av en SVM-baserad inlärare.
15,202,196
Automatic Tagging Of Arabic Text: From Raw Text To Base Phrase Chunks
{'venue': 'Human Language Technology Conference And Meeting Of The North American Association For Computational Linguistics - Short Papers', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,708
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Snabbare R-CNN REF är ett klassiskt objektdetekteringsramverk som förutsäger klass-agnostiska grova objektförslag med hjälp av ett regionförslagsnätverk (RPN) och sedan extraherar fix-size objektfunktioner för att klassificera objektkategori och förfina objektets plats.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,709
Sammanfattning — Hidden Markov modeller (HMMs) har blivit arbetshästar för övervakning och händelseigenkänning litteratur eftersom de ger tidsserie analys nyttan av densitetsberäkning och bekvämligheten av dynamisk tidsförvrängning. När dessa modeller väl har tränats anses de vara ogenomskinliga; det finns ingen ansträngning att tolka de dolda tillstånden. Vi visar att genom att minimera den gemensamma distributionens entropi kan en HMM:s inre statsmaskin göras till att organisera observerad aktivitet i meningsfulla tillstånd. Detta har användning i videoövervakning och annotation, låg bit-rate kodning av scenaktivitet, och upptäckt av avvikande beteende. Vi demonstrerar med modeller av kontorsaktivitet och utomhustrafik, som visar hur ramverket lär sig de viktigaste aktivitetssätten och aktivitetsmönsterna förändras. Vi visar sedan hur denna ram kan anpassas för att dra slutsatsen dolda tillstånd från extremt tvetydiga bilder, i synnerhet, sluta 3D kroppsorientering och posera från sekvenser av lågupplösta silhuetter. Index Villkor — Video aktivitet övervakning, dolda Markov modeller, dolda tillstånd, parameteruppskattning, entropy minimization. ae En diskret tid dold Markov modell är en blandning modell förstärkt med dynamik genom att konditionera sitt dolda tillstånd i tid t på tiden tÀI. En HMM av x dolda tillstånd och Gaussian utsläpp distributioner anges av 4-tuple f ijj Y i Y "" i Y u u i gY I iY j x, där ijj är multinomial övergång sannolikheter mellan dolda tillstånd, i är den ursprungliga sannolikheten för tillstånd i, och "" i Y u u u parameterize utsläpp distributioner för varje tillstånd, i detta fall innebär och covariances av Gaussiska densiteter Prob(x xj state i) = x x xY " i Y u u i. Sannolikheten för en multivariat tidsserie är produkten av alla övergångs- och utsläppsannolikheter associerade med en dold tillståndssekvens fs I Y Y Y s g, summerad över alla möjliga tillståndssekvenser: Dynamiska programmeringsalgoritmer finns tillgängliga för de grundläggande inferensuppgifterna: Med tanke på en tidsserie beräknar Viterbi algoritm den mest sannolika dolda tillståndssekvensen; den framåtvända algoritmen beräknar datasannolikheten och förväntade tillräcklig statistik över dolda händelser såsom statsövergångar och ockcupancies. Denna statistik används i Baum-Welch parameter omskattning för att maximera sannolikheten för modellen med tanke på uppgifterna. Förväntningsmaximeringsalgoritmen (EM) för HMMs består av framåt-backward analys och Baum-Welch reskattation itererade till konvergens med en lokal sannolikhet maximum. Principen om maximal sannolikhet (ML) är inte giltig för små datamängder; i de flesta visionsuppgifter är träningsdata sällan tillräckligt stora för att spola ut provtagningsartefakter (t.ex. buller) som skymmer datagenererande mekanismens väsentliga regularitet. Det är inte allmänt känt att detta är ett akut problem i doldavariabla modeller, där de flesta av parametrarna endast stöds av små delmängder av data. Det, i kombination med det faktum att modellerna har högklassiga symmetrier som tillåter många olika parameteriseringar av samma fördelning, resulterar i ett inlärningsproblem som är genomsyrat av lokala optima. Följaktligen är ML dolda-variabla modeller vanligtvis både under passform, misslyckas med att fånga den dolda strukturen av signalen, och överpassning, med en surfait av svagt understödda parametrar som oavsiktligt modellerar oavsiktliga egenskaper hos signalen såsom buller och provfördomar. Detta leder till dålig prediktiv kraft och blygsam generalisering som stöder endast begränsade slutsatser uppgifter, såsom att klassificera en av en liten uppsättning av händelser av intresse. Vi förespråkar att Baum-Welch formulñ ersätts med parameterskattningar som minimerar entropi. Entropy minimization utnyttjar dualiteten mellan inlärning och komprimering för att approximera en optimal separation mellan väsentliga egenskaper (regulariteter och dold struktur i data som bör fångas upp av modellen) och oavsiktliga egenskaper (buller och provtagning artefakter som bör ignoreras). Genom att göra det, avslöjar det dolda strukturer i data som tenderar att vara starkt korrelerade med meningsfulla partitioner av data-genererande mekanismens beteende. I denna artikel beskriver vi entropy minimization för HMMs och visar hur tre videotolkningsuppgifter kan behandlas som problem med att sluta dolda tillstånd: kommentera kontorsverksamhet, övervaka trafikkorsningar, och sluta 3D rörelse från monocular video. En vanlig tråd i dessa applikationer är betoningen av slutledning över bildbehandling eller scenmodellering; högnivåslutsatser görs från relativt utarmad avkänning via inlärda tidigare snarare än konstruerade algoritmer. Små HMM och HMM-baserade hybrider har haft stor framgång i talad ord- och visuell gestigenkänning, delvis för att det är möjligt att handdesigna en lämplig övergångstopologi, vilket är den dominerande begränsningen i inlärningsproblemet. Men deras användbarhet för mer komplicerade system begränsas allvarligt av det faktum att man för modeller av icke-trivial storlek måste undersöka för en lämplig topologi med hjälp av mycket dyra söktekniker. Även om litteraturen i HMM-baserad visuell händelseklassificering är omfattande, så berör den inte denna artikels fokus — att upptäcka en uppsättning händelsetyper som effektivt beskriver åtgärder i videon — så vi kommer bara att granska den kategoriskt. Man kan konsultera förfarandet [11], [8], [14] för att se huvuddelen av den visuella övervaknings- och händelseigenkänningslitteraturen under de senaste två åren: Över 30 sådana papper använder ett litet batteri HMM som en postvisuell klassificering av händelser. Nästan alla använder HMM som standard Bayesian MAP klassificering: Varje HMM tränas på några exempel på händelse av intresse; efter utbildning, nya händelser klassificeras via sannolikhetskvoter. HMM:erna har en handdesignad topologi, som vanligtvis motsvarar en banddiagonal övergångsmatris; antalet band och tillstånd hittas genom experiment. Relaterade modeller, såsom dynamiska Bayes' nät, kräver också noggrann hantverk. Problemet med att hitta lämpliga HMM topologier är föremål för intensivt forskningsintresse utanför visionslitteraturen; [5] granskar 12 av de mest aktuella tillvägagångssätten för att lära HMM topologi, alla involverade heuristiska generera-och-test sökning eller heuristiska klustermetoder. I den här artikeln kommer vi att utforska en oövervakad strategi där entropiminimering automatiskt inducerar en partitionering av signalen till händelser av intresse. Detta ramverk ger monotona (hillclimbing) algoritmer för samtidig uppskattning av modell topologi och parametrar. Som våra applikationer kommer att visa är resultatet en enda, glest ansluten HMM som innehåller hela klassificeringsmotorn. Detta gör det möjligt för oss att 844 IEEE TRANSAKTIONER PÅ PATTENANALYS OCH MASKIN INTELLIGENS, VOL. 22, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, 8, AUGUSTI 2000. M. Brand är med Mitsubishi
En av de välkända metoder i datorseende är att använda dolda Markov modell (HMM) REF.
11,878,199
Discovery and Segmentation of Activities in Video
{'venue': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'journal': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'mag_field_of_study': ['Computer Science']}
82,711
Vi visar att det är möjligt att utbilda stora återkommande språkmodeller med användarnivå differential integritet garantier med endast en försumbar kostnad i prediktiv noggrannhet. Vårt arbete bygger på den senaste tidens framsteg i utbildningen av djupa nätverk om användarpartitionerade data och integritetsredovisning för stokastisk lutning nedstigning. I synnerhet lägger vi till integritetsskydd på användarnivå till den federerade genomsnittsalgoritmen, som gör "stora steg"-uppdateringar från användardata. Vårt arbete visar att med tanke på ett dataset med ett tillräckligt stort antal användare (ett krav som lätt kan uppfyllas av även små internetbaserade dataset), kommer uppnå differential integritet på bekostnad av ökad beräkning, snarare än i minskad nytta som i de flesta tidigare arbeten. Vi finner att våra privata LSTM språkmodeller kvantitativt och kvalitativt liknar o-brutna modeller när de tränas på en stor datauppsättning. 1. Vad är det för fel på dig? Vi tillämpar differentialintegritet på modellutbildning med hjälp av begreppet användaranknutna datauppsättningar, vilket leder till formella garantier för integritet på användarnivå, snarare än integritet för enstaka exempel. Publicerad som konferensbidrag på ICLR 2018 2. Vi introducerar en noised version av den federerade genomsnittsalgoritmen (McMahan et al., 2016) i §2, som uppfyller användaren-närmare differential integritet genom användning av momenten revisor (Abadi et al., 2016a) först utvecklats för att analysera differentially privat stokastisk lutning nedstigning (SGD) till exempel-nivå integritet. Den federerade genomsnittliga tillvägagångssätt grupper flera SGD-uppdateringar tillsammans, vilket möjliggör stora steg modelluppdateringar. 3. Vad är det som händer? Vi demonstrerar den första högkvalitativa LSTM språkmodell tränas med starka integritetsgarantier i §3, visar ingen betydande minskning av modellens noggrannhet med tanke på en tillräckligt stor datauppsättning. Till exempel, på en datauppsättning av 763,430 användare, baslinje (icke-privat) utbildning uppnår en noggrannhet på 17,5 % i 4120 omgångar av utbildning, där vi använder data från 100 slumpmässiga användare på varje omgång. Vi uppnår samma nivå av noggrannhet med (4.6, 10 −9 )-differential integritet i 4980 rundor, bearbetning i genomsnitt 5000 användare per rund-underhållande samma nivå av noggrannhet på en betydande beräkningskostnad på ungefär 60×. 1 Att köra samma beräkning på en större datauppsättning med 10 8 användare skulle förbättra integritetsgarantin till (1.2, 10 −9 ). Vi garanterar integritet och underhåll verktyg trots den komplexa interna strukturen av LSTM-med per-ord inbäddningar samt täta tillstånd övergångar-genom att använda den federerade genomsnittsalgoritmen. Vi visar att den bullerade modellens mått och kvalitativa beteende (med avseende på huvudord) inte skiljer sig nämnvärt från den icke-privata modellen. Såvitt vi vet representerar vårt arbete den mest sofistikerade modellen för maskininlärning, som bedöms utifrån modellens storlek och komplexitet, som någonsin utbildats med integritetsgarantier, och den första modellen som utbildats med integritet på användarnivå.
McMahan m.fl. REF tillämpar differentialintegritet för LSTM språkmodeller genom att kombinera federerad inlärning och differential privat SGD för att garantera integritet på användarnivå.
3,461,939
Learning Differentially Private Recurrent Language Models
{'venue': 'ICLR', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,712
Ett grundläggande problem vid datafusion är att fastställa tillförlitligheten hos data från flera källor för att lösa konflikter. Även om tidigare arbete med sanningsupptäckt har visat sig vara användbart i praktiken för specifika inställningar, källors beteende eller datauppsättningsegenskaper, har det gjorts en begränsad systematisk jämförelse av de konkurrerande metoderna när det gäller effektivitet, användbarhet och repeterbarhet. Vi åtgärdar detta underskott genom att tillhandahålla en omfattande översyn av 12 toppmoderna algoritmer för sanningsupptäckt. Vi tillhandahåller referensimplementeringar och en fördjupad utvärdering av de metoder som bygger på omfattande experiment på syntetiska och verkliga data. Vi analyserar aspekter av problemet som inte uttryckligen har studerats tidigare, såsom effekterna av initiering och parameterinställning, konvergens och skalbarhet. Vi tillhandahåller ett experimentellt ramverk för att i stor utsträckning jämföra metoderna i ett brett spektrum av scenarier för sanningsupptäckt där källtäckning, antal och fördelning av konflikter, och verkliga positiva påståenden kan kontrolleras och användas för att utvärdera algoritmernas kvalitet och prestanda. Slutligen rapporterar vi omfattande resultat från experimenten och ger nya insikter för framtida forskning. I takt med att användargenererat innehåll växer exponentiellt ökar beroendet av webbdata oundvikligen inom varje applikationsdomän. Data kan dock vara partiska, bullriga, föråldrade, felaktiga och därmed vilseledande och opålitliga. Massiva data från flera källor förstärker svårigheten att fastställa informationens riktighet. Problemet med sanningsupptäckt är intellektuellt och tekniskt intressant nog att ha lockat många tidigare studier, från artificiell intelligens och databassamhällen, ibland undersökt under namnen faktakontroll [9], information trovärdighet [13], information bekräftande [8], data fusion [14, 10], motstridiga data integration [5], eller kunskapsfusion [7]. Problem med att upptäcka sanningen kan formuleras på följande sätt. Med tanke på en rad påståenden som hävdats av flera källor, markera varje påstådd värde som sant eller falskt och beräkna tillförlitligheten hos varje källa. En stor del av arbetet sträcker sig sanningsupptäckt modeller genom att införliva tidigare kunskap antingen om de påstådda påståendena (t.ex.,. SIMPLELCA och GUESSLCA [13] ) eller om källans rykte via förtroendebedömning (t.ex. SourceRank [1] ). En annan viktig forskningslinje syftar till att iterativt beräkna och uppdatera tillförlitligheten hos en källa som en funktion av tron på dess påståenden, och sedan tro poäng för varje påstående som en funktion av pålitligheten hos de källor som hävdar det (t.ex., Truthfinder [17] ). I denna linje har flera probabilistiska modeller föreslagits för att införliva olika aspekter utöver källtillförlitlighet och anspråk tro, nämligen beroendet mellan källor (t.ex., DEPEN och dess förlängningar [3] ), den timliga dimensionen i att upptäcka utvecklande sanning [6], svårigheten att fastställa sanning i vissa påståenden (t.ex., COSINE, 2- och 3-ESTIMATES [8]) och förvaltningen av samlingar av enheter (t.ex. LTM [18] ) eller länkade uppgifter [9]. Det finns ett antal utmaningar i sanningsupptäckten. Den första utmaningen är teoretisk eftersom det är svårt att formalisera en metod som är tillräckligt allmän för att hantera olika datauppsättningsegenskaper och scenarier för sanningsupptäckt. Vi konstaterar att ingen av metoderna ständigt överträffar de andra när det gäller precision och en "one-fits-all"-strategi verkar inte vara möjlig att uppnå. En annan utmaning hänger samman med metodernas användbarhet. Antaganden av modeller för sanningsupptäckt och komplex parameterinställning gör det fortfarande svårt att använda nuvarande metoder och tillämpas på den stora mångfalden av information som finns tillgänglig på webben. Relaterat arbete. Tidigare jämförande studier som Li et al. [11] och [10] är baserade på verkliga datamängder och guldstandarder eftersom den fullständiga sanningen i praktiken ofta inte existerar eller är ouppnåelig. Sådana guldstandarder är prover av sanningen på marken (i allmänhet mindre än 10 % av den ursprungliga datamängdens storlek). Vi hävdar att de inte är statistiskt signifikanta för att användas på ett legitimt sätt för att utvärdera och jämföra befintliga metoder på ett systematiskt sätt. I tidigare jämförelser undersöktes inte heller viktiga algoritmiska aspekter av metoderna, såsom parameterinställningar, tids komplexitet, repeterbarhet, beräkningsproblem, skalbarhet och algoritmernas konvergens. De prövade dem inte i någon större utsträckning för ett brett spektrum av scenarier för sanningsupptäckter som systematiskt genererades med kontrollen av den fullständiga sanningsdistributionen på marken. Det experimentella ramverket och datauppsättningsgeneratorn som vi föreslår för att jämföra metoderna är nya, praktiska bidrag till fältet, så att andra kan använda och utöka dem för benchmarking, parameterinställning och inställning av befintliga och nya algoritmer för sanningsupptäckt. Offentligt tillgängliga datauppsättningar med fullständig grundsanning är notoriskt svåra att få tag på. Datauppsättningsgeneratorn kan fungera som en användbar proxy för vad-om-scenarier och reproducerbarhet, för att på ett systematiskt sätt förstå de datauppsättningsegenskaper som har betydande inverkan på algoritmernas prestanda och kvalitet. Målen för vår studie är: (1) Att ge en tydlig förklaring av varje algoritm, och tillåta jämförelse av deras egenskaper genom att använda gemensam notation, termiarXiv:1409.6428v1 [cs.DB] 23 Sep 2014 För att ge referensimplementeringar av dessa algoritmer mot vilka framtida algoritmer kan jämföras, kan nya datamängder analyseras, och på toppen av vilka algoritmer för olika problem eller tillämpningar kan byggas, och slutligen, (3) Att utföra en grundlig experimentell utvärdering av algoritmerna över en mängd olika datamängder och rapportera deras prestanda och kvalitet för ett brett spektrum av parameterinställningar. Detta dokument är uppbyggt på följande sätt: I Avsnitt 2 definierar vi problemet med sanningsupptäckt och beskriver algoritmerna i detalj. I avsnitt 3 presenterar vi vår jämförande studie baserad på syntetiska datauppsättningar som systematiskt genereras för att demonstrera algoritmernas kvalitet i olika scenarier för sanningsupptäckt. Sedan studerar vi skalbarhet, och slutligen utvärderar vi metoderna på fem verkliga datauppsättningar. I Avsnitt 4 sammanfattar vi våra resultat och avslutar dokumentet. Vi betraktar de sanningsupptäcktalgoritmer som tar, som indata, en uppsättning anspråk i form av quadruplets (claimID, sourceID, dataPunktID, värde) och sluter, som resultat, en Boolesk sanningsetikett för varje påstående. Dessutom, sanningen upptäckt algoritmer kan också returnera T s, sanningen i varje källa s och C v, förtroendet för varje värde v. Till exempel, överväga de fyra källorna i exemplet i tabell 1 a) anpassat från [5]. De ger krav på anknytning till fyra forskare såsom (c1,S1,Stonebraker:AffiliatedTo,MIT). Källa täckning (Cov) är 1 för S 1,.25 för S 2, och.75 för S 3 och S 4. Endast S 1 ger faktiskt ett korrekt värde för varje dataobjekt, från d 1 till d 4, i enlighet med marksanningen (GT). Beroende på antalet olika värden per dataobjekt (Conf) - t.ex., d 1 -d 3 har 2 olika värden - vissa algoritmer kan göra slumpmässiga gissningar eller felaktiga beslut om vissa källor kopierar påståenden från en annan källa. I tabell 1 b har källsannolikhet beräknats av algoritmerna DE-PEN och TRUTHFUNDER. Precisionen beräknas från antalet sanna positiva i (GT) också returneras av algoritmerna (.75 respektive.25). Sanningen om S 1 är.0489 för SRUTHFUNDER, medan det är.0323 för DEPEN. Tabell 1 c visar förtroendet för varje värde som beräknats av SRUTHFINDER. De värden som anses vara sanna av denna algoritm är i fetstil. Som illustreras av detta exempel, sanning upptäckt algoritmer kan ha olika precision och resultat beroende på parameter inställning och datauppsättning egenskaper. I den här artikeln studerar vi effekten av både kvalitet och prestanda av 12 algoritmer för sanningsupptäckt från litteraturen. Vi använder noterna i tabell 2. Varje sanning upptäckt algoritm presenteras i detalj med sin pseudokod där hänvisar till beräkning av värdet förtroende C v, och hänvisar till beräkning av källan sanningsförmåga, T S. Vi studerar inverkan av olika parameterinställningar på kvaliteten på varje algoritm och vi analyserar tid komplexitet i tabell 3. Vi gjorde flera val för konsekvens och rättvisa i vår studie. Först initierade vi källsanning T S till.8 för alla algoritmer eftersom det maximerar precisionen hos de flesta algoritmer. För det andra använder vi bokdatasetet för denna preliminära parameteriseringsstudie. Bokdatamängden har formaterats i olika versioner så att alla algoritmer kan jämföras från samma datamängd. För det tredje använder vi samma konvergenstest för alla algoritmer: skillnaden i källsanningsförmåga kosinuslikhet mellan två på varandra följande iterationer ska vara mindre än eller lika med ett visst tröskelvärde, δ, som vi kommer att beskriva i detta avsnitt. Vi kommer att diskutera dessa val i slutet av avsnittet och avsluta med denna första uppsättning experiment som ägnas åt parameterinställning. På grund av rymdbegränsningen var vi tvungna att begränsa presentationen av våra resultat, men vi inbjuder läsaren att komma åt hela uppsättningen av de experimentella resultaten och koderna i [2]. Algoritm. SANNINGEN förlitar sig på ärligheten hos källorna och följer de heuristiker som en källa som ger mestadels sanna anspråk för många dataobjekt kommer sannolikt att ge verkliga anspråk för andra objekt. I Algoritm 2.1 är sannolikheten för att ett värde är fel (1 - T s ). Således, om värdet tillhandahålls av många källor, då dess sannolikhet för att vara fel är s pås v (1 - T s ). Efter denna allmänna idé är källans sanningsvärdighet i SRUTHFINDER T s = v.V.S.C.V.V.S. in och konfidenspoängen för ett värde är σ v.= − s.S. v ln.(1 − T.S.). Logaritm används för att undvika underflöde av sanningens värde när mängderna är små. TRUTHFINDER justerar konfidenspoängen för ett påstående så att det införlivar det inflytande (eller stöd) som liknande påståenden kan ha ömsesidigt på varandra som (v, v ). Till exempel, för ett dataobjekt med flera värden, kommer en källa som tillhandahåller värdena (AuthorA,AuthorB) för en bok att stödja en annan källa som tillhandahåller värdena (AuthorA,AuthorB,AuthorC) för samma bok (men inte omvänt). Vikten av ett sådant stöd mellan värdena styrs av parametern ρ på [0, 1]. Det slutliga förtroendet för en fordran beräknas sedan med en logistisk funktion för att vara positivt. Fuktfaktorn γ kompenserar effekten när källor med liknande värden faktiskt är beroende. Eftersom TRUTHFINDER beräknar likheten mellan värden, kan den påverkas dramatiskt av antalet olika värden att jämföra vilket förklarar relativt lägre prestanda när antalet konflikter är högt. Slutligen använder SRUTHFINDER skillnaden i källsanningsmässighet kosinuslikhet mellan två på varandra följande iterationer som är mindre än eller lika med ett visst tröskelvärde, δ. Värdet med den högsta konfidensgraden väljs sedan som det verkliga värdet bland de andra (falska) värdena för ett givet dataobjekt. Parameterinställning. TRUTHFINDER har tre olika parametrar som ska ställas in: ρ, γ, och T S. Vi varierar varje parameter värde samtidigt som de andra parametrarnas värden som rapporteras i nästa tabell. Variabler Precision ρ =.5, T S =.8 γ från.2 till.8 Ingen signifikant förändring ρ =.5, γ =.1 T S från 0 till.99 Ingen signifikant förändring γ =.1, T S =.8 ρ från.2 till.8 Max (.9777) för ρ =.5 Vi varierar δ, konvergenströskeln från 001 till 1E‐5 utan någon ändring i precision men ökning av verkställighetstiden från 435 ms till 526 ms ( på +21%) för bokdatamängden. Slutligen använder vi δ =.001 och de värden som maximerar precisionen för bokdatamängden: ρ =.5, γ =.1 och T S =.8 (noteras i tabellen). Tre algoritmer har föreslagits 2010 av Galland et al. I [8], nämligen COSINE, 2-ESTIMATES och 3-ESTIMATES. COSINE i Algoritm 2.2 börjar med att initiera förtroendet för varje värde och sanningen hos varje källa. Sedan beräknar den iterativt källsanningsförmåga som en linjär funktion av den sanningsvärdighet som uppnåddes i den tidigare iterationen. För varje påstådd värde, värdeförtroendet beräknas som en funktion av den nuvarande sanningen poäng av de källor som hävdar detta värde minus sanningens poäng av oense källor i. 2-ESTIMATES i algoritm 2.3 är en probabilistisk modell för att uppskatta källsanning och värdeförtroende. Liksom i CO-SINE, tar 2-ESTIMATES hänsyn till avvikande källor för varje dataobjekt medan du beräknar värdet förtroende. Den börjar med att initiera källsanning och beräknar iterativt värdet förtroende i som en funktion av både enas och oense källor som hävdar olika värden. Därefter beräknar den källsanningbarheten som en funktion av förtroendet för alla värden för alla dataobjekt som tillhandahålls av källan. Slutligen normaliseras både värdeförtroende och källsanning efter varje iteration med Normalisera funktion. 3-ESTIMATES i Algoritm 2.4 använder en tredje parameter bredvid T S och C v : värdet felfaktor, v. Därefter, för varje värde, algoritmen beräknar värdet förtroende i som en funktion av värdet felfaktorn och sanningen hos varje källa som ger värdet, samt sanningen hos de källor som hävdar andra värden. Konfidensen normaliseras och används för att beräkna en ny felfaktor per värde som också normaliseras. Slutligen beräknas och normaliseras källsanningen som en funktion av värdeförtroendet och felfaktorn. Som författarna nämnde är normaliseringsfunktionen kritisk för att dessa algoritmer ska nå konvergens till en icke-lokal optima, men inställningen av λ dokumenteras inte i den ursprungliga tidningen. Dessutom använde författarna en fixpunktsberäkning för att testa konvergens. Eftersom de inte rekommenderade det för att vara kostsamt och inte garantera konvergensen i Algoritm 2.5: LTM (S, D, V, K, burnin, tunn, α, β) S v : n s,tv,ov ← n s,tv,ov + 1 tills. Sv : n s,tv,ov ← n s,tv,ov + 1 Provtagning: vissa fall använde vi samma konvergenstest som TRUTHFINDER med δ =.001. Parameterinställning. Information bekräfta algoritmer inkluderar fyra parametrar som ska initieras: T s, η för COSINE, λ och v. Vi initierar T s =.8. För COSINE ställer vi in η till 0,2 eftersom det maximerar precisionen. I vår parameteriseringsanalys på bokdatasetet ställdes vi inför instabila resultat för 3-ESTIMATES från en utförande till en annan vilket gav olika resultat för precision, noggrannhet och återkallande för vissa värden av λ. Som visas i tabellen, baserat på 100 körningar med λ =.8, 95% konfidensintervall av precision varierar från.9214 till.9587. Slutligen väljer vi T S =.8, η =.2 för COSINE, λ =.5 och v =.4 för 3-ESTIMATES. Latent Truth Model (LTM) föreslogs 2012 av Zhao et al. [18] använder bayesiska nätverk för att uppskatta sanningen. LTM har två viktiga antaganden om formatet på de datamängder som den kan hantera: (1) Datamängden ska endast innehålla ett attribut med atomvärden och (2) LTM kan hantera flera sanna värden för samma dataobjekt. Till exempel, när det gäller bokdatamängden där en lista över författare som tillhandahålls av en källa är (AuthorA,AuthorB), LTM tar faktiskt som indata två påståenden från s, var och en har ett atomvärde som kan vara sant såsom: (c1,s,ThisBook:AuthorOf,AuthorA) och (c2,s,ThisBook:AuthorOf,AuthorB). LTM anser, för varje källa, dess tidigare sannolikhet för verkliga positiva och negativa fel, noterade (α 1,1, α 1,0 ) som källkänslighet, liksom dess tidigare sannolikhet för falska positiva och negativa fel, noterade (α 0,1, α 0,0 ) som källspecifikitet. Slutligen anses värden med högre konfidensgrad än.5 vara sanna, vilket innebär att LTM inte kan upptäcka något verkligt värde för vissa dataobjekt. Algoritm. I Algoritm 2.5, LTM upprätthåller fyra räknare för varje källa, noterade n s,tv,ov, där t v är Booleska sanningsetikett för varje värde v, och o v är om värdet v faktiskt hävdas av källan eller inte. LTM initierar först etiketten på varje påstående slumpmässigt och uppdaterar räknarna för varje källa. I varje iteration provar LTM varje sanningsetikett från sin distribution betingad på alla andra sanningsetiketter, och källräknare uppdateras i enlighet därmed. LTM använder en kollapsad Gibbs provtagningsprocess med K, antalet iterationer som krävs för att definiera provstorleken som (K – burnin)/tunn. Därefter uppdaterar LTM värdena sannolikheten för sanning genom att kasta den första uppsättningen prover (brännparameter) och för varje n prover i återstoden (tunn), LTM beräknar genomsnittet för att förhindra korrelation mellan angränsande prover. Eftersom LTM bygger på den slumpmässiga initieringen av sanningsetiketterna, liksom på slumpmässig provtagning, kan vi inte rapportera precisionen i en enda körning. I det ursprungliga papperet rapporterades genomsnittlig precision över 10 körningar. I vårt experiment rapporterade vi den genomsnittliga precisionen över 100 körningar eftersom vi observerade fluktuerande resultat med breda standardavvikelser över 10 körningar. LTM beräknar inte källsanning som ger en fördel i fråga om utförandetid. Parameterinställning. Nio parametrar måste ställas in i LTM: (K, burnin, tunn): de kollapsade Gibbs provtagningsparametrarna, α = (α 1,1, α 1,0, α 0,1, α 0,0 ), de tidigare sanna/false positiva/negativa påståendena för källorna, och β = (β 1, β 0 ), de tidigare sanna och falska talen för dataobjektets värdepar. Vi studerar de värden som författarna föreslår för alla parametrar i bokdatauppsättningen: varierar en parameter och fixerar de andra successivt och vi observerar: (1) Inga signifikanta förändringar i precisionen för LTM, varken för (K, burnin, tunn) = (50, 10, 1), (500, 100, 9) eller (2000), 100, 9) eller för β = (.1,.1) eller (.5,.5). (2) För hög α 0,1 och α 1,0 (.7 till.9) och låg α 0,0 och α 1,1 (.1 till.3) var precisionsalgoritmen låg med hög standardavvikelse (±0,32 i genomsnitt) och minimal precision i 95 % konfidensintervall under 100 körningar. Vi beaktade inte denna parameterinställning för α på grund av för hög precisionsvariabilitet. (3) För de återstående permutationerna av α 1,1, α 1,0, α 0,1, och α 0,0, LTM når stabilitet i precision för 100 körningar med små 95% konfidensintervall (.002 i genomsnitt) enligt följande. Slutligen väljer vi (K, burnin, tunn) = (500, 100, 9), α = (.9, 1, 9,.1) och β = (.1,.1) för att få maximal precision genomsnitt över 100 körningar på boken datauppsättning. Maximal sannolikhetsskattning (MLE) föreslogs 2012 av Wang et al. I [16] baseras på algoritmen Förväntning Maximering (EM) för att kvantifiera källornas tillförlitlighet och riktigheten i deras observationer. MLE behandlar endast Booleska positiva observationer (t.ex. dataobjekt som dennaPerson-hasKids med sant eller falskt värde). Negativa observationer ignoreras. För att kunna testa MLE på bokens datauppsättning omformulerade vi varje påstående som (c1, s,ThisBook:AuthorOf,(AuthorA,AuthorB) såsom två påståenden: (c1,s,ThisBook:AuthorA,true) och (c2,s,ThisBook:AuthorB,true). Algoritm. I Algoritm 2.6 börjar MLE med att initiera källornas parametrar: a(s), sannolikheten att källan rapporterar att ett värde är sant när det verkligen är sant och b(s), sannolikheten att s rapporterar ett värde som är sant när det i verkligheten är falskt (liknar källkänsligheten α 1,1 och α 1,0 i LTM). I förväntan steg, MLE iteratively beräknar den villkorliga sannolikheten för ett värde v att vara sant baserat på dess källa sannolikheter (a(s), b(s)), och på sannolikheterna för de källor som inte ger v (en/en). Sedan beräknar det iterativt förtroendet för varje värde i. I Maximering steg, MLE uppdaterar källor sannolikheterna a(s) och b(s) i. Förväntning-Maximering steg upprepas tills konvergens av både a(s) och b(s). En viktig observation av MLE algoritm är när antalet källor tenderar att vara mycket stor, källa sannolikheter tenderar att noll och C v tenderar att 0/0. MLE kan inte användas med ett stort antal källor (> 5000). Parameterinställning. Två parametrar behövs i MLE: r och β 1 för att beräkna de initiala parametrarna för källorna, a(s) och b(s). β 1 är den totala förhandssannolikheten för påståendena (liksom LTM). r är sannolikheten att en källa ger ett värde för alla dataelement. I sitt originalpapper testas MLE på en syntetisk datamängd utan någon indikation på hur dessa parametrar ska ställas in. Så, för boken datauppsättning, varierar vi successivt r och β 1 med hjälp av ett enhetligt konstant värde för alla källor parametrar initialisering. Variabler Precision, Noggrannhet, Recall r =.5 för alla källor β 1 från.1 till.9 Alla lika med 1 för β 1 =.5 β 1 =.5 r från.1 till.9 Alla lika med 1 för r =.5 Slutligen väljer vi β 1 =.5 och r =.5 jämnt konstant för alla källor för att få precision, noggrannhet och recall lika med 1. [5] och ytterligare utvidgas i [6, 4] är den första Bayesianska sanningsdetekteringsmodell som tar hänsyn till kopieringsförhållandena mellan källor. DE-PEN bestraffar rösträkningen av en källa om källan upptäcks vara en kopiator av en annan källa. DEPEN presenteras med 4 förlängningar i sitt ursprungliga papper [5]. Vår studie fokuserar på DEPEN, ACCU, ACCUSIM och ACCUNODEP: ACCU utökar DEPEN modellen och slappnar av antagandet att källorna har samma noggrannhet och för varje dataobjekt, alla oberoende källor har inte längre samma sannolikhet att ge ett verkligt värde. ACCUSIM utökar ACCU för att ta hänsyn till värdelikhet, och ACCUNODEP antar att alla källor är oberoende. Algoritm. Algoritm 2.7 presenterar DEPEN och börjar med att initiera alla källors sanningsförmåga till.8. För varje dataobjekt, det väljer det sanna värdet genom majoritetsomröstning, och beräknar beroendet mellan källor med CompDepen (s i, s j, α, n) funktion där α är den a priori sannolikhet att s i och s j är beroende, och n är antalet falska värden per dataobjekt. Till iterativt beräkna värdet förtroende för, De källor som hävdar det aktuella värdet först beställs av deras beroende sannolikheter med orderByDepen (S v ) funktion. Sedan beräknas varje källas röstLand på ett sätt som minimerar rösten om källan är beroende av andra källor i Pre, listan över rangordnade källor, som t.ex. röstLand= s j på Pre (1 − c.depen(s j )), med c sannolikheten för att ett värde som tillhandahålls av en kopiator kopieras. voiceCount viktas sedan av t poäng, källans poäng för att beräkna värdet förtroende. Källans sanningsförmåga beräknas iterativt som en funktion av förtroendet för alla värden som källorna hävdar. Verkliga värden förväntas vara de värden som har det högsta självförtroendet. I ACCUNODEP behövs ingen beroendeberäkning, och voiceCount är alltid 1. I ACCU och ACCUSIM beräknar algoritmen värdet förtroende med t score = ln(nT s /(1 - T s )), medan i DEPEN, t score = 1. I ACCUSIM, värdet likhet beaktas för konfidensberäkningen i varje iteration och, ρ v och V d C v.sim( v, v) läggs till C v (liknar TRUTHFUNDER). Det är värt att notera att DEPEN modell och dess förlängningar uppskattar källan röstRäkna för ett givet värde baserat på att beställa källorna genom att minska beroende sannolikhet. Denna beställning kan vara annorlunda från en körning till nästa, eftersom två källor med samma beroende sannolikheter kan visas i olika positioner. Vi observerade att denna beroendebaserade beställning introducerade små variationer av kvalitetsmåtten för 20 utföranden av modellerna med samma parameterisering på bokdatauppsättningen. I synnerhet observerar vi DEPEN-precision (.9814 ±.0002), ACCU-precision (.9741 ±.0061) och ACCUSIM-precision (.9413 ±.0051). För att lindra detta problem bestämde vi oss för att använda den lexical beställningen snarare än beroende sannolikhetsbaserad beställning av källorna. Detta förbättrar visuellt kvaliteten på modellerna med +.02 (DEPEN LEX precision.9814, ACCU LEX precision.9809, och ACCUSIM LEX precision 0.973) för boken datauppsättning och det förbättrar också stabiliteten i de resultat som förblir konstant från en körning till en annan. Parameterinställning. Fixing ρ =.5 och n = 100, studerar vi olika parametrisering inställning rapporteras i tabellen. Slutligen väljer vi α =.2, T S =.8, c =.8 för DEPEN och ACCUNODEP och c =.1 för ACCU och c =.05 för ACCUSIM.
Waguih m.fl. REF påpekar att den glesa grundsanningen inte är statistiskt signifikansen att på ett legitimt sätt utnyttja för att utvärdera och jämföra metoder.
14,669,137
Truth Discovery Algorithms: An Experimental Evaluation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,713
Frågan om vilken roll sex spelar i evolutionen är fortfarande öppen trots årtionden av forskning. Man har ofta antagit att sex bör underlätta den ökade konditionen. Det faktum att den kan bryta ner mycket gynnsamma genetiska kombinationer har därför betraktats som ett problem. Här överväger vi ett alternativt tillvägagångssätt. Vi definierar en åtgärd som representerar allelernas förmåga att prestera väl över olika kombinationer och med hjälp av numeriska iterationer inom ett klassiskt populationsgenetiskt ramverk, visar att urval i närvaro av sex gynnar denna förmåga på ett mycket robust sätt. Vi visar också att den mekanism som är ansvarig för denna effekt har varit utanför ramen för tidigare teori, eftersom den fungerar under den evolutionära övergående, och att nedbrytningen av gynnsamma genetiska kombinationer är en integrerad del av den. Konsekvenser av dessa resultat och mer av evolutionsteorin diskuteras. Rekombination av moduläritet på grund av robusthet och förmåga att utveckla sin förmåga att påverka könsrollen i evolutionen har ofta letts av antagandet att kön bör underlätta ökningen av befolkningens genomsnittliga kondition, v (1). Samtidigt har man insett att sex kan bryta ner mycket gynnsamma kombinationer av gener, vilket hindrar ökningen av kondition (2, 3). I en framträdande genomgång av sexteorin skrev Barton och Charlesworth (4) att nedbrytningen av mycket gynnsamma genkombinationer har varit en av de mest uppenbara svårigheterna att förstå sex. Här undersöker vi könsrollen i evolutionen ur en annan synvinkel. Vi utvecklar ett mått, M, som representerar genom bred förmåga av alleler att prestera bra över olika kombinationer. Med hjälp av numeriska iterationer inom ett klassiskt populationsgenetiskt ramverk, finner vi att sex gynnar ökningen av M på ett mycket robust sätt. Dessutom avslöjar vi den mekanism som ligger till grund för denna effekt och finner att den fungerar under den evolutionära övergående, som har studerats relativt lite. Vi finner också att nedbrytningen av mycket gynnsamma genkombinationer är en integrerad del av denna mekanism. Därför, om rollen av sex innebär val inte för de bästa kombinationer av gener, som skulle registreras av w, men för gener som är gynnsamma i många olika kombinationer, som registreras av M, då bryta ner av mycket gynnsamma kombinationer inte nödvändigtvis utgör ett problem. Ett prejudikat för vårt arbete kan hittas i arbetet av Crow och Kimura (5), som helt kort, baserat på intuition, föreslog att sex gynnade ''bra mixers''. Men de utvecklade inte denna intuition, och i själva verket ansågs nedbrytningen av mycket gynnsamma genkombinationer vara en nackdel för könet. I linje med deras ordval kallar vi M för "genomsnittlig blandbarhet" av alleler i genomet. Teoretiska behandlingar förutsätter normalt att generna bidrar separat till konditionen. Till exempel, när det gäller två loci, kan lämpligheten w ij av en haploid genotyp som består av allele i på den första locus och allele j på den andra locus representeras som w ij på 1 es i j ij, där s i och t j är separata, additiva bidrag av alleles i och j, respektive och ij är en interaktion eller ""epistasis" term. I våra modeller finns inga förutfattade meningar om separata bidrag till kondition. Sex gynnar dock ökningen av M och, som ett resultat av denna ökning, som vi skall se, uppstår en situation där separata bidragstermer kan bli naturliga och viktiga inslag i beskrivningen av genotypisk kondition. Formler som innehåller separata bidragstermer har länge använts i populationsgenetik (6), men hur könet relaterar till dem har inte varit det primära fokus. Våra resultat kan bidra till att överbrygga mellan sexteori och modularitetsteori (7-11). I de senaste simuleringarna, Misevic et al. (10) I jämförelse med asex fann man att sex gynnade en genomisk organisation där genetiska element som kodade för samma egenskap var fysiskt närmare varandra och längre bort från andra sådana element. I sin tolkning var denna organisation modulär (10, 11) och följaktligen var de grupper av länkade element som ingick i den moduler. Men den idealiska modulen i denna mening är en vars element är absolut kopplade, och är också en särskilt bra mixer i den meningen att den överförs som en helhet och är därför mer sannolikt att behålla sin individuella bidrag till kondition över olika bakgrunder. Därför kan den teori som ges här bidra till att förklara dessa simuleringsresultat på en konceptuell nivå. Genom hela denna artikel, och i traditionen av evolutionsteori, använder vi orden ''gen'' och 'allel' för att hänvisa inte bara till en genetisk sekvens som kodar för ett protein eller en uppsättning proteiner som är relaterade till alternativ skarvning, utan till varje sammanhängande sträcka av arvsmassan som kan representeras av en lokus i våra modeller och som är informerad av våra resultat (12). Betrakta haploid 2-locus fitness landskap i Fig. 1................................................................ Även om genotyp A 1 B 3 har maximal kondition, finns det en känsla av att allel A 2 presterar bäst totalt sett bland A allelerna i olika genetiska sammanhang (samma för B 2 ). Låt P ij,t vara frekvensen av genotyp A i B j vid generation t, r vara rekombinationsfrekvensen (0 på r på 1 2 ), och w ij vara lämpligheten för A i B j, med w t på i,j P ij,t w ij och P ij,t P ij,t w ij /w t. Den diskreta tiden evolutionär dynamik av en stor panmictic population utan mutation kan skrivas som: [1] Iterating denna ekvation numeriskt från många olika initiala genotypiska frekvenser vi finner att, för r på 0 (asex), genotyp A 1 B 3 outcompetitions alla andra genotyper, medan för många värden av r med 0 på r 1 2 (sex), allelerna A 2 och B 2 oftast konkurrensutsätter alla andra alleler (Fig. 2).................................................................. För att formalisera denna observation, låt M i vara den genomsnittliga lämpligheten för allele i, dvs..: I dessa exempel allelerna av högsta mixerbarhet fix, men urvalet för alleler av hög mixerbarhet sker under den evolutionära övergående snarare än nära jämvikt. För att få en enhetlig bild av många olika fall från 3 grundläggande modeller av kön: haploid 2-locus (rekombination), diploid 1-locus (segregation), och diploid 2-locus (båda), använder vi ett robust sätt att jämföra mellan kön och asex baserat på en populationsomfattande mått på blandbarhet, M t, som vi definierar som: där L är uppsättningen av loci, Lʹ är kardinalen för den uppsättningen, vid varje locus och L det finns en uppsättning av alleler indexeras av i, och P i,t är frekvensen av allele i vid generation t. Till exempel, i haploid 2-locus modell,. M, vilket är den genomsnittliga blandbarheten i befolkningen, kan kontrasteras med en grundläggande åtgärd i populationsgenetik, nämligen w, genomsnittlig (genotypisk) lämplighet. Vi itererade de tre modellerna (se Metoder) i fyra fall, nämligen 2, 3, 4, eller 5 alleler per locus, tre r-värden (i sex fall av 2-locus modellerna; r 0.5, 0.2, 0,05}) och tre värden för en parameter ( f ) som bestämde intervallet av fitness värden (se Metoder). I varje tillstånd (en modell, en allel nummer, en r, och en f värde), valde vi en slumpmässig uppsättning n fitness matriser, {W 1,. ., W n } och en slumpmässig uppsättning n initiala genotypiska frekvensmatriser, {P 1,. ., P n }, n till 25 (se Metoder), och för var och en av n 2 par av P och W matriser, itererade motsvarande ekvationer för ett visst antal generationer (t.ex., 2 15 32000 generationer) både med och utan kön; varje sådan iteration kallades en "förhandling." Vid en representativ uppsättning generationer (t.ex., {0, 1, 2, 4.., 2 15 }), registrerade vi andelen prövningar där den sexuella befolkningen hade en högre M än den asexuella en (% M sex på M asex ) och vice versa (% M asex M sex ) och andelen prövningar där den asexuella befolkningen hade en högre w än den sexuella (% w asex w sex ) och vice versa (% w sex och w asex ). Dessa procentpar adderar inte nödvändigtvis upp till 100, eftersom frekvensskillnader mellan kön och asex under en mycket liten tröskel ansågs innebära att dessa åtgärder i stort sett var desamma (se Metoder). Därför kallar vi skillnaden (enkelt infererad med ögat) mellan andelen försök där en population var högre i M och andelen försök där den andra populationen var högre i M ''advantage' till den tidigare populationen i M (och på liknande sätt för w ). Typisk evolutionsdynamik ges för 2-lokusdiploidmodellen i Bild. 3 och för andra fall i SI 2 i SI Text och bild. S3-S8. S3-S8. S3-S8: S3 – S3 – S3 – S3 – S8; S3 – S3 – S3 – S8; S3 – S3 – S8; S3 – S3 – S8. Huvudresultatet är att medan den asexuella befolkningen har en avgörande fördel i w, den sexuella befolkningen har en avgörande övergående fördel i M. Detta resultat håller anmärkningsvärt bra under alla undersökta förhållanden och i alla 3 modeller (SI 2 i SI Text och Figs. S3-S8). S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. S3-S8. Att w maximeras under asex är tydligt, eftersom i så fall den geometriska tillväxten av genotypiska frekvenser enligt deras egenskaper leder till den slutliga utrotningen av alla utom de mest passande genotyper. Men hur gynnar sex blandbarhet? Betrakta haploid 2-locus modellen i Eq. 1. Vad är det för fel på dig? Den andra termen i denna ekvation visar att rekombination och segregation av icke-homologa kromosomer verkar för att minska variansen i frekvenserna av genotyper som bär en given allel. Denna minskning av variansen förskjuter tillväxthastigheten av denna allel på lång sikt från att vara associerad med prestandan av den mest passande genotypen som bär den mot att vara associerad med hur väl den utför i genomsnitt med sina olika genetiska partners. Följaktligen konkurrerar alleler av samma gen med varandra baserat på hur väl de presterar i genomsnitt snarare än hur bra de presterar i en viss kombination. Undersökning av diploid 1-locus Ett haploid 2-locus fitness landskap med 3 alleler per locus. Allelerna A1, A2 och A3 i locus A och B1, B2 och B3 i locus B ger 9 genotyper AiBj med konditioner w ij, representeras av höjderna på barerna (w11 på 0,840, w12 på 1,046, w 13 på 1,100, w21 på 1,040, w22 på 1,060, w23 på 1,000, w31 på 1,020, w32 på 1,050, w 33 på 0,820). Bilda. 2............................................................... Typisk evolutionsdynamik av det haploida 2-locus exemplet. Här börjar vi med lika genotypiska frekvenser (1/9 för var och en av 9 genotyper) vid generation 0 och beräknar de genotypiska frekvenserna för generationerna 1500 baserat på Eq. 1 för båda r på Livnat et al. ekvation visar att segregation av homologa kromosomer har en liknande effekt (SI 3.1 i SI Text). Varför minskningen av variansen har denna effekt kan förstås intuitivt genom analogi med finansiering. För att diversifiera en portfölj (13) bland olika investeringar och därmed i genomsnitt dess tillväxttakt över tiden, måste en investerare hålla balansen portföljen med regelbundna intervall (14). Annars kommer portföljen snart att vara partisk mot de investeringar som hittills haft den bästa individuella avkastningen. Investeringarna här motsvarar de genotyper som delar en allel, portföljen motsvarar den allelen, och analogt är det den ihållande rehomogeniseringen genom kön av frekvenser av genotyper som bär varje allel som skiftar fokus för naturligt urval över generationerna från den individuella prestandan av genotyper till den genomsnittliga prestandan för alleler. Eftersom denna genomsnittliga prestanda hos alleler endast kan registreras på flergenerationstidsskalan skiljer sig den i huvudsak från den genomsnittliga prestanda hos alleler som Fisher har diskuterat (15). Faktum är att populationsgenetiken normalt fokuserar på frekvensförändringar som endast förekommer i en generation och på den jämvikt som kan beräknas utifrån dem, och den effekt som just nämnts är inte godtagbar för detta tillvägagångssätt (SI 3.2 i SI Text). Vi kan nu se fördelen med M i, Som är ett genomsnitt av genotypiska konditioner oviktade av genotypiska frekvenser, jämfört med en bekant åtgärd som, Som är ett genomsnitt av genotypisk kondition viktad av genotypiska frekvenser vid generation t, P g,t (i diploid 1-locus modell, i,t är relaterad till marginal fitness). På grund av den multigenerationella karaktären av effekten, de ""instantana"" frekvenser P g,t, som hänvisar till generation t endast, skulle göra för olämpliga vikter för fitnesses w g. Denna fördel, dock kommer med en kostnad. Genom att notera att M i I när alla P g,t är lika, ser vi att M i är i grunden en proxy som blir mindre informativa ju längre de genotypiska frekvenserna är långt ifrån jämnt fördelade. Således, som genetisk variation förloras under de numeriska iterationer på grund av urvalet, och den genotypiska frekvensfördelningen blir mindre enhetlig, M i proxy förlorar makt, och fördelen med kön i blandbarhet som ses genom M i minskar. Vi kan nu se varför fördelen med sex i M toppar i de transienta och är 100%. Å ena sidan, antingen minskningen av kraften i M i börjar omedelbart eller M i är felaktig från början (SI 3.3 i SI Text). Å andra sidan tar det flera generationer för fördelen att sex i M ackumuleras (SI 3.4 i SI Text). Superposition av dessa två effekter minskar den observerade fördelen till sex i blandbarhet på både vänster och höger för att skapa toppen som nämns ovan. Viktigt, Detta är en begränsning på vår förmåga att observera urval för blandbarhet genom M, inte en begränsning på valet för blandbarhet själv. En annan begränsning av observerbarheten är avsaknaden av mutation i våra modeller. Även om urvalet för ökat w under asex inte kan fortsätta på obestämd tid utan mutation på grund av utarmning av genetisk variation, är urvalet för ökat M under kön ännu känsligare för denna utarmning, eftersom det kräver inte bara variation i det genetiska material som väljs ut [som i Fishers grundläggande teorem (15) utan också variation i genetiskt material vars tolerans väljs ut. Med hänsyn till dessa begränsningar är våra resultat konservativa (SI 3.5 i SI Text). I själva verket fylls variationen ständigt på av mutation, urvalet fortsätter bortom vad som visas här, och skillnaden i blandbarhet mellan sexuella och asexuella populationer bör växa på obestämd tid (SI 3.6 i SI Text). Som en följd av ökningen av M i våra modeller, ger kön också upphov till separata genetiska bidrag till kondition. För att se detta, överväga en haploid 2-locus modell med konditionsvärden w ij, i 1,.., n A }, j till {1,..., n B } med ett genomsnitt 1 n A n B ij w ij 1. Varje w ij kan representeras som en avvikelse från medelvärdet: w ij på 1 x ij, där x ij kan vara positiv, negativ eller noll. Men anta att uppsättningen av fitness värden som tillhör en viss allele i på den första locus har ett högt genomsnitt; det vill säga, är avsevärt på1. I detta fall är det statistiskt meningsfullt att representera varje w ij i den uppsättningen som en avvikelse från medelvärdet för den uppsättningen: w ij på 1 på s på i på ij, där s på i är positiv. Dessutom, anta att allele j på den andra locus också har en hög M j, då är det statistiskt meningsfullt att använda en form som w ij. Eftersom uppsättningen alleler av intresse för våra modeller begränsas genom valet av blandbarhet från den ursprungliga uppsättningen alleler till den delmängd av alleler som har höga M-värden, blir det därför lämpligt att beskriva genotyper med hjälp av en form som ovan, som innehåller separata additiva bidrag till konditionen i s och t-termerna. Observera att, först genom att använda tillsatsen form som just nämnts vi inte menar att utesluta andra former som inkluderar separata bidrag till lämplighet, såsom w ij på ett sätt som gör det möjligt för Fisher (15), där additionalitet hänvisar till exponenten). För det andra, även om allelerna A i och B j gör separata bidrag till kondition, organismen kan fortfarande behöva ha vissa alleler på locus A och vissa alleler på locus B för att vara livskraftiga alls och, följaktligen, sådan separation säger ingenting om styrkan i samspelet mellan loci A och B som är gemensamt för alla par av allelerna A i och B j. Det har länge föreslagits att sex bryter ner mycket gynnsamma kombinationer av gener (2, 3). Detta har betraktats som ett problem på grund av antagandet att kön bör underlätta ökningen av befolkningen innebär kondition, w (16, 17). Särskilda villkor har sökts under vilka kön kan underlätta denna ökning (1, 4), men dessa villkor befanns vara restriktiva (1, (18) (19) (20). Men vår analys har visat en fördel till sex i genomsnitt blandbarhet, M, och dessutom verkar det som dissociation av genkombinationer, där nedbrytningen av mycket gynnsamma kombinationer presenteras på framträdande plats, behövs för att orsaka denna fördel. Därför föreslår vi att rollen av sex är att möjliggöra val inte för mycket gynnsamma specifika kombinationer av gener utan för gener som är gynnsamma i många olika kombinationer (SI 3.7 i SI Text). Mekanismen som gör det möjligt att välja blandbarhet fungerar på flergenerationstidsskalan. Det har varit utanför ramen för tidigare teori, som ofta fokuserade på enskilda generationsförändringar och den jämvikt som kunde beräknas från dem. Denna mekanism visar att vid varje generations naturliga urval fungerar på genotypiska konditioner, över generationerna och i närvaro av kön, är det särskilt effektivt inte i ökande befolkning menar kondition utan i att öka förmågan hos alleler att prestera bra över olika kombinationer. Därför, i denna mekanism, naturliga urval och kön fungerar ömsesidigt beroende och måste förstås i samband med varandra. Våra iterationer börjar med slumpmässiga genotypiska träningsvärden som inte på något meningsfullt sätt beror på deras ingående alleler. I haploid 2-locus modellen, till exempel, den genotypiska fitnesses w ij kan skrivas i detta skede som w ij på 1 x ij, där i och j hänvisar till alleler på den första och andra locus, respektive x ij kan vara positiva, negativa eller noll. Sedan, under iterationer, i närvaro av kön, alleler väljs som har höga M-värden. När allelerna har höga M-värden blir det dock statistiskt meningsfullt att representera genotypernas kondition symboliskt med former som har separata bidrag till konditionen, t.ex. w ij på 1 i j ij, där s i och t j representerar de additiva bidragen till alleles i och j, respektive, och ij är en interaktion eller "epistasis" term. Således börjar vi med genetiska element som inte har någon mening förutom det faktum att de rekombinerar och slutar med gener som ger separata bidrag till kondition. Former som ovan har använts i populationsgenetik sedan Fishers försoning av Mendelism och biometri (6). Men nu ser vi att inom ramen för vår ram ger kön dem orsaksberättigande. Vårt arbete bekräftar intuitionen hos Crow och Kimura (5) att sex gynnar bra mixers, som de beskrev muntligt som alleler som gjorde stora additiva bidrag till kondition. Det stämmer också överens med de empiriska bevis som de lade fram på denna punkt. De noterade att ANOVA av bidraget från olika kromosomer till läkemedelsresistens som utvecklades under sexuell reproduktion i Drosophila visade stark additionalitet (5, 21), medan läkemedelsresistens som utvecklades under asexuell reproduktion i Escherichia coli minskade genom efterföljande rekombination på ett sätt som innebar starka interaktioner (22). Utmed samma linje visade Malmberg (23) att bidrag från olika genomiska regioner till läkemedelsresistens i bakteriofage T4 visade en starkare additivitet och svagare interaktioner i populationer som utvecklades under högre rekombinationshastigheter. Även om vårt arbete stämmer överens med dessa bevis tyder det också på att blandbarhet måste ses som en central fråga. På senare tid har intresset ökat för utvecklingen av fenotypisk robusthet mot genetiska förändringar (11, 24). Det har föreslagits att antingen denna robusthet utvecklas för att hålla ett drag på sin optimala (24) [direkt som svar på genetisk varians eller som ett korrelerat svar på miljövarians (25)]] eller denna robusthet är en biprodukt av att vara nära en optimal (24), och att villkoren för den förra kan vara mer uttalade i sexuella än i asexuella populationer (11, 24, 26, 27). Fitness är en fenotypisk egenskap av särskilt intresse i detta sammanhang (24), och nyligen genomförda simuleringar har faktiskt funnit högre kondition robusthet för rekombinational (28) och mutationer (10, 28) genetiska förändringar i sexuella än i asexuella populationer. Eftersom alleler med hög blandbarhet upprätthåller hög kondition trots rekombination, visar våra iterationer också högre kondition robusthet för rekombinationella förändringar i sexuella populationer, och på denna punkt är de överens med ovanstående. Våra iterationer visar dock en ytterligare väg genom vilken denna kondition robusthet kan utvecklas, eftersom här utvecklas det som en omedelbar följd av kön och naturligt urval och inte som ett resultat av trycket att hålla sig nära en optimal kondition. Viktigt, även om urvalet för blandbarhet i våra modeller gynnade en genetisk variant om det upprätthöll hög lämplighet med flera genetiska partners som den stött på genom rekombination, kan en sådan variant också vara mer benägna att interagera väl med genetiska partners som den ännu inte har stött på, inklusive nyligen muterade, eftersom dessa sannolikt skiljer sig med bara en liten mängd från dem som den har stött på. Denna möjlighet skulle stämma överens med de senaste simuleringarna (28), som visade att rekombinationell lämplighet robusthet ledde till mutationell kondition robusthet (28). Nu, enligt de Visser et al. (24) Kraftfull kondition kan öka exvolverbarheten (24), och i synnerhet locis förmåga att tolerera förändringar i andra loci kan göra det möjligt för evolutionen att gå framåt genom lokala förändringar snarare än att kräva en samordnad förändring över genomet (24). Följaktligen antar vi att blandbarheten ökar möjligheten att utveckla sig. Möjligheten att blandbarhet ökar flexibiliteten kan ge ett svar på frågan ""vad är blandbarhet bra för?"" Det anses allmänt att bland högre organismer, sexuella arter (obligate och facultativ) är mer utveckliga än asexuella (29) (30) (31), eftersom de är grundarna av breda taxa (12, 29) och är betydligt vanligare (4, 32), medan tvingande asexuella är mestadels nyligen härledda från sexuella förfäder (kallas ""evolutionary dead-ends"", men se ref. 33) och är fylogenetiskt gles (12, 29). Om blandbarhet ökar exvolverbarheten, då (eftersom det är gynnat under kön) kan det ha bidragit 19806 på www.pnas.org och cgi med 10.1073 påpnas.0803596105 Livnat et al. till spridningen av de sexuella arterna och själva sexualiteten. Dessutom kan den tolerans mot genetiska förändringar som blandbarhet innebär förklara varför samma eller liknande gener ofta förekommer i olika kombinationer inom och mellan olika arter (9). Kirschner och Gerhart tillskriver detta till de delar av livet som är lämpliga för " versatilitet och modifiering snarare än för dedicerad engångsanvändning" (9). Vår analys visar att sex gynnar kompatibilitet mellan alleler. Det motsatta är att brist på sex gör det möjligt för alleler att utveckla inkompatibilitet när de utvecklas. Detta ansluter till DobzhanskyMuller modell (34) av hybrid fitness reduktion. I det grundläggande fallet med denna modell, en population av diploida genotyper A 1 B 1 A 1 B 1 delas upp i två separata dem, ett där A 1 B 2 A 1 B 2 utvecklas och ett där A 2 B 1 A 2 B 1 utvecklas; och efter dessa dem kommer tillbaka i kontakt, negativa epistatiska interaktioner sägs förekomma i hybriden A 1 B 1 A 2 B 2 mellan allelerna A 2 och B 2. Frågan är dock varför allelerna A 2 och B 1 är kompatibla, allelerna A 1 och B 2 är kompatibla, men allelerna A 2 och B 2 är oförenliga. Svaret, i termer av vår teori, är att kön väljer för alleler med en additiv effekt som stiger över epistasis. Utan kön, epistas mellan alleler hos icke-avel individer är fri att öka innan resultera i en hybrid. Således är bevis för Dobzhansky-Muller-effekten (35) [och det faktum att hybrider är mindre funktionella hos arter som är längre längs processen för speciering (19)] förenligt med vårt arbete. De könsroller, additionalitet och epistas som beskrivs här hänger också samman med debatten Fisher-Wright, där Fisher (15) förespråkade additiva genetiska bidrag till kondition med svag epistasis och Wright (36) förespråkade stark epistasis, eftersom det tyder på att båda var delvis korrekta. Det vill säga, eftersom parning sker oftare inom en deme, det minskar epistasis i kors inom en deme; och eftersom det förekommer mindre ofta mellan demes, det tillåter epistasis i kors mellan demes att öka med ackumulation av mutationer. Med ett liknande argument kan genetisk koppling (5) och den lokala rekombinationsfrekvensen över genomet förväntas påverka epistasens omfattning. Slutligen kan våra resultat tala till ett samband mellan sex och modularitet (10, 11). Enligt Schlosser (37) definieras evolutionära moduler delvis av det faktum att de gör relativt kontextokänsliga (här kallade "separata") bidrag till kondition. I närvaro av sex får loci i våra modeller denna egenskap hos evolutionära moduler. Dessutom, i simuleringsförsök med digitala organismer, Misevic et al. (10) Man fann att genetiska element som kodade för samma egenskap var fysiskt närmare varandra och längre från andra sådana element i sexuellt avseende än i asexuella organismer. I sin tolkning visade detta resultat att sex gynnade en modulär organisation av genomet (10, 11), och följaktligen var de grupper av sammankopplade element som ingick i sexuella genom moduler. Men den idealiska modulen i denna tolkning är en vars element är absolut kopplade, och denna idealiska modul är också en särskilt bra mixer i att den överförs som en helhet och är därför mer sannolikt att behålla sin individuella bidrag till kondition över olika bakgrunder. Den urvalsmekanism för blandbarhet som beskrivs här kan därför bidra till förståelsen av resultaten av Misevic et al. (10). Detta beslut träder i kraft den tjugonde dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. Vår analys tar inte upp könets ursprung och försöker inte relatera könsutvecklingen till att öka eller minska den genomsnittliga konditionen. I stället har vi observerat ett intressant samband mellan närvaron av sex och det tidsmässiga mönstret av blandbarhet. De sätt på vilka blandbarhet och modularitet som svar på sex relaterar till valbarhet lovar att ge ett intressant område för framtida arbete. Tre modeller. Haploid 2-locus-modellen ges i Eq. 1. Vad är det för fel på dig? För alleler i................................................................................................................. I diploid 2-locus modellen, asex fall, håller vi reda på genotyper P ijkl, t med fitnesses wijkl, där jag,k på 1,. .., nA} hänvisar till alleler i locus A och j,l med 1,....................................................................................... .., n B ska hänvisa till alleler i locus B, så att ij utgör en haplotyp och kl utgör den andra haplotypen. I sexfallet, om man antar panmixis, behöver vi bara hålla reda på haplotypfrekvenserna (dvs kromosomer), P ij,t. Position effekter innebär endast wijkl ska wklij, medan avsaknaden av detta innebär w ijkl och wkjil wilkj och wklij för alla i,j,k,l. där w it definieras som w it var. Mi tar nu en form som liknar M i o, förutom att nu i och j hänvisar till samma uppsättning av alleler i samma locus: M i och M en j w ij /n A (Pij,t i Eq. 4 skiljer sig från Pij,t i Eq. 1 på samma sätt). Värdena i varje fitness matris drogs självständigt slumpmässigt från en enhetlig fördelning på intervallet och 1. För att konstruera frekvensmatriserna drogs initiala alleliska frekvenser (t.ex. P i,0, Pj,0 i haploid 2-locus-modellen) för första gången slumpmässigt från den enhetliga fördelningen över intervallet [0,1] och normaliserades för varje lokus, sedan erhölls genotypiska frekvenser genom att multiplicera de alleliska frekvenserna (t.ex. P ij,0 och Pi,0Pj,0). Jämförelse. Eftersom "'större än'' jämförelser är alltför känsliga för de minst signifikanta decimaltalen, jämförde vi endast de sexuella och asexuella populationerna' w värden när genotypiska frekvenser, P g,t, skilde sig bortom en mycket liten tröskel (¥g på G (P g,t kön på P g,t asex ) 2 på 10 på16 ), där genotyper av identisk lämplighet grupperades tillsammans som en), och endast jämförde deras M när både genotypypic (tidigare tillstånd) och alleliska frekvenser skilde sig bortom en mycket liten tröskel (t.ex. i haploid 2-locus modellen, ((¥ iP i,t sex P i,t asex ) 2 och påjP j,t sex j,t som ex 2 ) / till nA nr 10.16 ); annars, w värden (respektivt, M värden) ansågs vara i stort sett identiska.
I ett av de tidigaste resultaten, Livnat et al. I REF infördes begreppet blandbarhet, en allels förmåga att framgångsrikt kombinera sig med andra alleler inom en viss population.
16,895,978
A mixability theory for the role of sex in evolution.
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Medicine', 'Biology']}
82,714
Abstract-This paper behandlar problemet med reläval i trådlösa drivna kooperativa nätverk, där rumsligt slumpmässiga reläer är utrustade med energilagringsenheter, t.ex. batterier. I motsats till konventionella tekniker och för att minska komplexiteten kan relänoder antingen skörda energi från källsignalen (vid oladdat batteri) eller försöka avkoda och vidarebefordra den (vid laddat batteri). Flera system för förmedlingsval som motsvarar olika krav på statlig information och komplexitet i genomförandet föreslås. Batteriets laddnings-/urladdningsbeteende är modellerat som en tvåstatig Markov-kedja och analytiska uttryck för steadystate-distributionen och sannolikheten för avbrott erhålls för varje reläurval. Vi visar att energilagringen i hög grad påverkar systemets prestanda och resulterar i en noll-mångfaldsvinst vid höga signal-till-brus-förhållanden. Konvergensgolven är beroende av batteriets stabila fördelning och härleds i sluten form med hjälp av lämpliga approximationer. De föreslagna systemen för urval av reläer generaliseras till ett storskaligt nätverk med flera åtkomstpunkter (APs), där reläer hjälper närmaste AP och lider av fleranvändarinterferens.
I REF studerade författarna separat problemet med singelrelay- och multirelay-val i ett distribuerat trådlöst samarbetsnätverk (WPCC).
12,554,310
Relay Selection in Wireless Powered Cooperative Networks with Energy Storage
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,715
Abstract-I detta dokument studerar vi problemet med att bygga privata klassificeringar med hjälp av beslutsträd, inom ramen för differential integritet. Vi bygger först integritetsbevarande ID3-beslut träd med olika privata summa frågor. Våra experiment visar att för många data sätter en rimlig integritet garanti kan endast erhållas via denna metod till en brant kostnad för noggrannhet i förutsägelser. Vi presenterar sedan en differentialt privat beslut träd ensemble algoritm med hjälp av slumpmässiga beslut träd metod. Vi demonstrerar experimentellt att vårt tillvägagångssätt ger god förutsägelsenoggrannhet även när storleken på datamängderna är liten. Vi presenterar också en differentierad privat algoritm för den situation där nya data regelbundet bifogas en befintlig databas. Våra experiment visar att våra differentialt privata slumpmässiga beslut träd klassificerare hanterar datauppdateringar på ett sätt som upprätthåller samma nivå av integritetsgaranti.
Jagannathan, etc. REF presenterar en differentialt privat slumpmässig beslut träd inlärningsalgoritm som kan tillämpas på flera klasser klassificering.
206,785,445
A Practical Differentially Private Random Decision Tree Classifier
{'venue': '2009 IEEE International Conference on Data Mining Workshops', 'journal': '2009 IEEE International Conference on Data Mining Workshops', 'mag_field_of_study': ['Computer Science']}
82,716
Abstract-App Stores, såsom Google Play eller Apple Store, tillåter användare att ge feedback på appar genom att publicera recensioner kommentarer och ge stjärnbetyg. Dessa plattformar utgör ett användbart elektroniskt medel där programutvecklare och användare kan utbyta information om appar på ett produktivt sätt. Tidigare forskning visade att användarnas feedback innehåller användningsscenarier, felrapporter och funktionsförfrågningar, som kan hjälpa apputvecklare att utföra programvaruunderhåll och utvecklingsuppgifter. När det gäller de mest populära apparna kan dock den stora mängden feedback, dess ostrukturerade natur och varierande kvalitet göra identifieringen av användbar användaråterkoppling till en mycket utmanande uppgift. I detta dokument presenterar vi en taxonomi för att klassificera apprecensioner i kategorier som är relevanta för underhåll och utveckling av programvara, samt ett tillvägagångssätt som slår samman tre tekniker: (1) Naturlig språkbehandling, (2) Textanalys och (3) Sentimentanalys för att automatiskt klassificera apprecensioner i de föreslagna kategorierna. Vi visar att den kombinerade användningen av dessa tekniker gör det möjligt att uppnå bättre resultat (en precision på 75 % och ett återkallande på 74 %) än de resultat som uppnås med varje enskild teknik (precision på 70 % och ett återkallande på 67 %).
REF presenterade en taxonomi för att klassificera apprecensioner i kategorier som är relevanta för underhåll och utveckling av programvara, samt ett tillvägagångssätt som slår samman tre tekniker (Natural Language Processing, Text Analysis, Sentiment Analysis) för att automatiskt klassificera apprecensioner i de föreslagna kategorierna.
16,594,616
How can i improve my app? Classifying user reviews for software maintenance and evolution
{'venue': '2015 IEEE International Conference on Software Maintenance and Evolution (ICSME)', 'journal': '2015 IEEE International Conference on Software Maintenance and Evolution (ICSME)', 'mag_field_of_study': ['Computer Science']}
82,717
Vi studerar den deterministiska och randomiserade frågekomplexiteten hos att hitta ungefärlig jämvikt i ett k × k bimatrix-spel. Vi visar att den deterministiska frågan komplexitet att hitta en -Nash jämvikt när < 1 2 är (k 2 ), även i noll ett konstant-sum spel. I kombination med tidigare resultat [Fearnley et al. 2013 ], detta ger en fullständig karakterisering av den deterministiska frågekomplex av ungefärlig Nash equilibria. Vi studerar också randomiserade frågealgoritmer. Vi ger en randomiserad algoritm för att hitta en ( 2 ) payoff frågor, som visar att 1 2 barriär för deterministiska algoritmer kan brytas genom randomisering. För väl stöttade Nash Equilibria (WSNE), ger vi först en randomiserad algoritm för att hitta en -WSNE av en nollsumma bimatrix spel med hjälp av O( k·log k 4 ) payoff frågor, och vi använder sedan detta för att få en randomiserad algoritm för att hitta en ( 2 3 + )-WSNE i en allmän bimatrix spel med hjälp av O( k·log k 4 ) payoff frågor. Slutligen inleder vi studien av lägre gränser mot randomiserade algoritmer i samband med bimatrix spel, genom att visa att randomiserade algoritmer kräver (k 2 ) payoff frågor för att hitta en -Nash jämvikt med < 1 4k, även i noll ett konstant-sum spel. Detta utesluter särskilt frågeeffektiva randomiserade algoritmer för att hitta exakta Nash equilibria.
REF visade en lägre gräns för den deterministiska frågekomplexiteten för att hitta en ε-ungefärlig Nash-jämvikt, där ε < 1 /2.
16,273,891
Finding Approximate Nash Equilibria of Bimatrix Games via Payoff Queries
{'venue': 'TEAC', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,718
Singular point är en viktig global funktion i fingeravtrycksbilder. Befintliga metoder för att upptäcka enstaka punkter brukar besöka varje pixel eller varje litet bildblock för att bestämma singularpunkten. Det vill säga, befintliga metoder kräver scanning av bilden för att beräkna en mängd vid varje pixel eller block, och därför är de oundvikligen tidskrävande. Vi föreslår en snabb algoritm för att upptäcka enstaka punkter genom att gå direkt till dem i stället för att skanna bilden. Walking Directional Fields (WDF) är etablerade från orienteringsfältet. Sedan följer vi de vandringsriktningar på WDFs, kan vi snabbt gå till de singular poäng. Promenadalgoritmen är extremt snabb och lätt implementerad med godtagbar noggrannhet. Dessutom kan noggrannheten förbättras genom att kombinera med toppmoderna metoder: vi kan snabbt gå till en kandidat singular punkt, sedan förfina sin plats med hjälp av befintlig mer exakt metod i det lokala området. Experimentella resultat av datauppsättningar i SPD2010 och FVC validerar den föreslagna algoritmens höga effektivitet och tillfredsställande noggrannhet.
En m.fl. REF föreslog en snabbare metod genom att gå direkt till de enskilda punkterna.
43,658,558
Walking to singular points of fingerprints
{'venue': 'Pattern Recognit.', 'journal': 'Pattern Recognit.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,719
Kryptering är en väl etablerad teknik för att skydda känsliga data. Men en gång krypterade, data kan inte längre vara lätt att fråga bortsett från exakta matchningar. Vi presenterar ett ordningsbevarande krypteringssystem för numeriska data som gör det möjligt att direkt tillämpa alla jämförelseoperationer på krypterade data. Fråga resultat som produceras är ljud (inga falska träffar) och komplett (inga falska droppar). Vårt system hanterar uppdateringar graciöst och nya värden kan läggas till utan att kräva ändringar i krypteringen av andra värden. Det gör det möjligt att bygga standarddatabasindex över krypterade tabeller och kan enkelt integreras med befintliga databassystem. Det föreslagna systemet har utformats för att användas i applikationsmiljöer där inkräktaren kan få tillgång till den krypterade databasen, men inte har tidigare domäninformation såsom distribution av värden och kan inte kryptera eller dekryptera godtyckliga värden efter eget val. Krypteringen är robust mot uppskattning av det verkliga värdet i sådana miljöer.
Agrawal m.fl. föreslog ett ordningsbevarande krypteringssystem (OPES) för 1D numeriska värden REF.
3,336,127
Order preserving encryption for numeric data
{'venue': "SIGMOD '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,720
Blandmaskin heterogena datormiljöer (HC) använder en distribuerad uppsättning av olika högpresterande maskiner, sammankopplade med höghastighetslänkar, för att utföra olika beräkningsintensiva applikationer som har olika beräkningskrav. HC-miljöer är väl lämpade för att möta de beräkningskrav som stora, olika grupper av uppgifter ställer. Problemet med optimal kartläggning (definierad som matchning och schemaläggning) dessa uppgifter på maskinerna i en distribuerad HC-miljö har i allmänhet visat sig vara NP-komplett, vilket kräver utveckling av heuristiska tekniker. Att välja den bästa heurismen att använda i en given miljö är dock fortfarande ett svårt problem, eftersom jämförelser ofta fördunklas av olika underliggande antaganden i den ursprungliga studien av varje heuristisk. Därför har en samling av 11 heuristiker från litteraturen valts ut, anpassats, implementerats och analyserats under en uppsättning gemensamma antaganden. Det antas att heuristikerna härleder en kartläggning statiskt (dvs. off-line). Det antas också att en metatask (dvs. en uppsättning oberoende, icke-kommunicerande uppgifter) kartläggs och att målet är att minimera den totala verkställighetstiden för metatask. De 11 heuristikerna som undersökts är opportunistisk lastbalansering, minimal körtid, minimal fullbordad tid, Min, Max min, Duplex, Genetisk Algoritm, Simulerad Annealing, Genetisk Simulerad Annealing, Tabu och A*. Denna studie ger en jämn grund för jämförelse och insikter om omständigheter där en teknik kommer att överträffa en annan. Utvärderingsförfarandet är specificerat, heuristiken definieras och sedan diskuteras jämförelseresultaten. Det visas att för de fall som studeras här, den relativt enkla Min min heuristic presterar bra i jämförelse med andra tekniker. Akademisk press
De enkla algoritmer som föreslås av Braun är Opportunistic Load Balancing (OLB), Minimum Execution Time (MET), Minimum Completing Time (MCT), Min-min, Max-min, Duplex, Genetic Algorithm (GA), Simulated Annealing (SA), Genetisk Simulering Annealing (GSA), Tabu och A * REF.
1,862,163
A Comparison of Eleven Static Heuristics for Mapping a Class of Independent Tasks onto Heterogeneous Distributed Computing Systems
{'venue': 'J. Parallel Distributed Comput.', 'journal': 'J. Parallel Distributed Comput.', 'mag_field_of_study': ['Computer Science']}
82,721
En just-in-time information hämtning agent (JITIR agent) är programvara som proaktivt hämtar och presenterar information baserad på en persons lokala sammanhang på ett lättillgängligt men ändå icke-inträngande sätt. Detta dokument beskriver tre implementerade JITIR agenter: Remembrance Agent, Margin Notes, och Jimminy. Teori- och designlektioner från dessa implementationer presenteras, med utgångspunkt i beteendepsykologi, informationssökning och gränssnittsdesign. De följs av utvärderingar och experimentella resultat. Den viktigaste lärdomen är att användare av JITIR-agenter inte bara är mer effektiva på att hämta information, utan faktiskt hämta och använda mer information än de skulle med traditionella sökmotorer.
REF definierade termen just-in-time-agenter som "en klass av programvaruagenter som proaktivt presenterar information baserad på en persons sammanhang på ett lättillgängligt och icke-instrusivt sätt".
18,156,591
Just-in-time information retrieval agents
{'venue': 'IBM Syst. J.', 'journal': 'IBM Syst. J.', 'mag_field_of_study': ['Computer Science']}
82,722
Faktoranalys, huvudkomponentanalys, blandningar av gaussianska kluster, vektorquantization, Kalman filtermodeller, och dolda Markov modeller kan alla förenas som variationer av oövervakat lärande under en enda grundläggande generativ modell. Detta uppnås genom att samla olika observationer och härledningar som gjorts av många tidigare författare och införa ett nytt sätt att koppla samman diskreta och kontinuerliga tillståndsmodeller med hjälp av en enkel icke-linjäritet. Genom att använda andra icke-linjäriteter visar vi hur oberoende komponentanalys också är en variation av samma grundläggande generativa modell. Vi visar att faktoranalys och blandningar av gaussians kan genomföras i autoencoder neurala nätverk och lärt sig med hjälp av kvadratfel plus samma legalisering term. Vi introducerar en ny modell för statiska data, känd som förnuftig huvudkomponentanalys, samt ett nytt koncept för rumsligt adaptivt observationsbuller. Vi går också igenom en del av litteraturen med globala och lokala blandningar av grundmodellerna och tillhandahåller pseudokod för slutsatser och lärande för alla grundmodeller. Många vanliga statistiska tekniker för att modellera multidimensionella statiska datamängder och flerdimensionella tidsserier kan ses som varianter av en underliggande modell. Som vi kommer att visa, dessa inkluderar faktoranalys, huvudkomponentanalys (PCA), blandningar av gaussian kluster, vektorquantization, oberoende komponentanalys modeller (ICA), Kalman filter modeller (även känd som linjära dynamiska system), och dolda Markov modeller (HMMs). Förhållandet mellan några av dessa modeller har noterats i förbigående i den senaste litteraturen. Till exempel, Hinton, Revow, och Dayan (1995) notera att FA och PCA är nära besläktade, och Digalakis, Rohlicek och Ostendorf (1993) relaterar framåt-backward algoritm för HMMs till * Nuvarande adress: {roweis, zoubin}@gatsby.ucl.ac.uk.
Kalman filter kan ses som en version av dolda Markov modeller med kontinuerliga dolda tillstånd REF.
2,590,898
A Unifying Review of Linear Gaussian Models
{'venue': 'Neural Computation', 'journal': 'Neural Computation', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Medicine']}
82,723
I trådlösa nätverk (WBAN) placeras olika sensorer och ställdon på/inom människokroppen och ansluts trådlöst. WBAN har särskilda krav för hälso- och sjukvård och medicinska tillämpningar, varför standardprotokoll som IEEE 802.15.4 inte kan uppfylla alla krav. Följaktligen har många protokoll för medium åtkomstkontroll (MAC), som till största delen härrör från IEEE 802.15.4 superframe-strukturen, studerats. De stöder dock inte en differentierad tjänstekvalitet (QoS) för de olika trafikformer som finns i en WBAN. I synnerhet är ett QoS-aware MAC-protokoll viktigt för WBANs som arbetar i olicensierade industriella, vetenskapliga och medicinska (ISM) band, eftersom olika trådlösa tjänster som Bluetooth, WiFi och Zigbee kan samexistera där och orsaka allvarliga störningar. I detta dokument föreslår vi ett prioritetsbaserat adaptivt MAC-protokoll (PA-MAC) för WBAN i olicensierade band, som tilldelar ankomst- och avgångstider dynamiskt, baserat på trafikprioriteringen. Dessutom används flera kanaler effektivt för att minska åtkomstförseningar i en WBAN, i närvaro av samexisterande system. Våra resultat visar att den föreslagna PA-MAC överträffar IEEE 802.15.4 MAC och den konventionella prioritetsbaserade MAC när det gäller genomsnittlig överföringstid, genomströmning, energiförbrukning och datakollisionsförhållande.
Ett prioritetsbaserat adaptivt MAC-protokoll (PA-MAC) REF härleds för WBAN-enheter som dynamiskt fördelar ankomst- och avgångstider till noderna baserat på trafikprioriteringen.
33,688,264
A Priority-Based Adaptive MAC Protocol for Wireless Body Area Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
82,724
Konventionella videospår (som kännetecknar videokodningens bildstorlekar i bitar och bildkvalitet i PSNR) är begränsade till att utvärdera förlustfri videoöverföring. För att utvärdera robusta videoöverföringssystem för förlorad nätverkstransport krävs i allmänhet experiment med faktisk video. För att kringgå behovet av experiment med faktiska videor föreslår vi i detta dokument ett avancerat ramverk för videospårning. De två huvudkomponenterna i detta ramverk är i) avancerade videospår som kombinerar de konventionella videospåren med en parsimonisk uppsättning visuella innehållsdeskriptorer, och ii) kvalitetsprognoser som bygger på de visuella innehållsdeskriptorerna ger en exakt förutsägelse om kvaliteten på den rekonstruerade videon efter förlust av nätverkstransport. Vi gör omfattande utvärderingar med hjälp av ett perceptuellt videokvalitetsmått samt PSNR där vi jämför den visuella kvalitet som förutses baserat på de avancerade videospåren med den visuella kvalitet som bestäms av experiment med faktisk video. Vi finner att den avancerade videospårmetoden exakt förutsäger kvaliteten på den rekonstruerade videon efter bildförluster.
Lotfallah m.fl. REF identifierade en parsimonisk uppsättning visuella innehållsdeskriptorer som kan läggas till de befintliga videospåren för att bilda avancerade videospår, sedan utvecklade de kvalitetsförutsägare som, baserat på avancerade videospår, förutspår kvaliteten på den rekonstruerade videon efter förlorad nätverkstransport.
13,642,090
A framework for advanced video traces: evaluating visual quality for video transmission over lossy networks
{'venue': None, 'journal': 'EURASIP Journal on Advances in Signal Processing', 'mag_field_of_study': ['Computer Science']}
82,725
Vi ger en systematisk studie av problemet med att hitta källan till ett rykte i ett nätverk. Vi modellerar rykte som sprids i ett nätverk med den populära mottagliga-infekterade (SI) modellen och sedan konstruera en uppskattning för rykteskällan. Denna estimator är baserad på en ny topologisk kvantitet som vi kallar ryktes centralitet. Vi konstaterar att detta är en maximal sannolikhet (ML) estimator för en klass av grafer. Vi finner följande överraskande tröskelfenomen: på träd som växer snabbare än en linje, estimator alltid har icke-trivial detektion sannolikhet, medan på träd som växer som en linje, detektion sannolikheten kommer att gå till 0 när nätverket växer. Simuleringar som utförs på syntetiska nätverk såsom den populära små-världen och skalfria nätverk, och på verkliga nätverk såsom ett internet AS-nätverk och den amerikanska elnätsnätet, visar att estimatorn antingen hittar källan exakt eller inom några humle av den verkliga källan över olika nättopologier. Vi jämför rykte centralitet med en annan gemensam nätverk centralitet begrepp kallas distans centralitet. Vi bevisar att på träd, ryktescenter och avstånd centrum är likvärdiga, men på allmänna nätverk, de kan skilja sig. I själva verket, simuleringar visar att rykte centralitet överträffar avstånd centralitet i att hitta rykten källor i nätverk som inte är träd-liknande.
Shah och Zaman REF ger en systematisk studie och design en rykteskälla uppskattare baserat på begreppet rykte centralitet.
3,655,777
Rumors in a Network: Who's the Culprit?
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'History']}
82,726