src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Vi implementerar en strategi för att anpassa två protein-protein interaktionsnätverk som kombinerar interaktion topologi och proteinsekvens likhet för att identifiera bevarade interaktionsvägar och komplex. Med hjälp av detta tillvägagångssätt visar vi att protein-protein interaktion nätverk av två avlägset besläktade arter, Saccharomyces cerevisiae och Helicobacter pylori, hyser ett stort komplement av evolutionärt bevarade vägar, och att ett stort antal vägar verkar ha duplicerat och specialiserat sig inom jäst. Analys av dessa fynd avslöjar många väl karakteriserade interaktionsvägar samt många oförutsedda vägar, vars betydelse förstärks av deras närvaro i nätverken av båda arterna. E volueringen drivs av biologisk variation på många nivåer. Mutationer och omorganiseringar i genomiskt DNA leder till förändringar i proteinstrukturer, överflöd och modifieringstillstånd. Variationer på proteinnivån påverkar i sin tur hur proteiner interagerar med varandra, med DNA och med små molekyler för att bilda signalerande, regulatoriska och metaboliska nätverk. Förändringar i nätverksorganisation har svepande konsekvenser för cellulär funktion, vävnadsnivå svar, och beteende och morfologi av hela organismer. Gen- och proteinsekvenser har länge fått mest uppmärksamhet som mått för evolutionär förändring, både för att de representerar en grundläggande nivå av biologisk variation och för att de är lätt tillgängliga genom automatiserad sekvensteknik. Den senaste tidens tekniska framsteg gör det emellertid också möjligt för oss att karakterisera nätverk av proteininteraktioner. Proteininteraktioner är avgörande för cellulär funktion både vid sammansättning av proteinkomplex och i signaltransduktionskaskader. Bland de mest direkta och systematiska metoderna för att mäta proteininteraktioner är koimmunoprecipitation (1) och tvåhybridsystemet (2), som har definierat stora protein-proteininteraktionsnätverk för organismer inklusive Saccharomyces cerevisiae (3-5), Helicobacter pylori (6) och Caenorhabditis elegans (7). Även om kvaliteten på data från dessa experiment har blandats, har sammanslagning av flera studier och integration med andra datatyper såsom genuttryck använts för att minska antalet falskt positiva interaktioner (8). Den snabba tillväxten av proteinnätverksinformation väcker en mängd nya frågor inom evolutions- och komparativ biologi. Med tanke på att proteinsekvenser och strukturer bevaras i och bland arter, bevaras också nätverk av proteininteraktioner? Finns det några minimala uppsättningar av interaktionsvägar som krävs för alla arter? Kan vi mäta evolutionärt avstånd på nivån för nätverksanslutning snarare än på nivån för DNA eller proteinsekvens? Montering bevis tyder på att bevarad protein interaktion vägar verkligen finns och kan vara allmänt förekommande: Till exempel, proteiner i samma väg är typiskt närvarande eller saknas i ett genom som en grupp (9), och flera hundra protein-protein interaktioner i jästnätverket har också identifierats för motsvarande protein ortologs i maskar (10). För att utforska bevarande av interartella vägar i global skala, gjorde vi en serie av hela nätverk jämförelser med hjälp av protein-protein interaktion nätverk av den spirande jästen S. cerevisiae och den bakteriella patogenen H. pylori. Jämförande nätverksanalys har visat sig vara kraftfull inom ett antal relaterade områden, bland annat metabolisk väganalys (11–14), motivfynd (15) och korrelation av biologiska nätverk med genuttryck (16). Här söker vi systematiskt efter och prioriterar bevarade interaktionsvägar i jäst vs bakterier, jäst vs jäst, och jäst vs. specifika "queries" formulerade för att avslöja homologa mitogenaktiverade proteinkinas (MAPK) signalerande och ubiquitin ligering maskiner. Metoder Vi utvecklade en effektiv beräkningsprocedur för att anpassa två proteininteraktionsnätverk för att identifiera deras bevarade interaktionsvägar. § Detta förfarande, som vi namngav PATHBLAST på grund av dess begreppsmässiga likhet med sekvensjustering algoritmer såsom BLAST (17), söker efter high-scoring väg anpassningar som omfattar två vägar, en från varje nätverk, i vilka proteiner av den första vägen A, B, C, D,. . och är ihopkopplade med putativa homologer som förekommer i samma ordning i den andra vägen tilla, b, c, d,. . på (Fig.... ). (Fig.......................... (Fig........................................ (Fig................................ 1a).............................................................................................. Evolutionära variationer och experimentella fel i vägstrukturen tillgodoses genom att tillåta ''gaps'' och ''missmatchningar'' (se även ref. 14), särskilt artikel 2.1 a, b, c, d, d, d, e, f, e, f, f, e, f, f, f, e, f, f, f, e, f, f, f, e, f, f, e, f, f, f, e, f, f, f, f, f, e, f, f, f, e, f, f, f, f, e, f, e, f, f, f, e, f, f, f, e, f, f, e, f, f, e, f, f, f, f, e, f, f, f, f, e, f, f, f, e, f, f, e, f, f, e, f, f, f, e, f, f, f, f, f, f, u, f, u, u, f, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u, u. Ett gap uppstår när en proteininteraktion i den ena banan hoppar över ett protein i den andra, medan en missmatchning uppstår när likriktning proteiner inte delar sekvenslikhet. På grund av utrymmesbegränsningar ges endast förkortade metoder i följande avsnitt; fullständiga beskrivningar finns i stödjande material och metoder och figurer. 5 och 6, som publiceras som stödjande information på PNAS webbplats, www.pnas.org. ¶ Global anpassning och poängsättning. För att utföra anpassningen kombineras de två nätverken till en global inställningskurva (Fig. 1b) där varje vertex representerar ett par proteiner (ett från varje nätverk) som har minst svag sekvenslikhet (BLAST E-värde 10 ) och varje kant representerar en bevarad interaktion, gap, eller missmatchning. En väg genom den här grafen representerar en vägjustering mellan de två nätverken. Vi formulerar en log sannolikhet poäng S(P) som bryts ner över hörnen v och kanter e av en väg P genom den globala anpassning grafen Förkortning: MAPK, mitogen-aktiverat proteinkinas. Till vem korrespondens bör skickas på den nuvarande adressen: University of California i San Diego, Institutionen för bioteknik, 9500 Gilman Drive, La Jolla, CA 92093. E-post: trey@bioeng.ucsd.edu. § Termen ''patway'' har i stort sett använts inom olika molekylära biologiska sammanhang för att hänvisa till biokemiska reaktionskedjor, signaltransduktionskaskader, genreglerande system eller andra sekvenser av biomolekylära händelser. Här en väg hänvisar till en sekvens av protein-protein växelverkan bildar en ansluten väg i nätverket. ¶ Vi har också undersökt metoder för att identifiera bevarade undernätverk i motsats till linjära vägar (se bild. 7, som publiceras som stödjande information på PNAS webbplats); att välja vilket tillvägagångssätt som är mest önskvärt förblir ett öppet problem och beror på frågor om beräkningseffektivitet och om proteinkomplex eller sekventiella vägar såsom signalöverföring eller regulatoriska kaskader är av högsta intresse.
När PPI-data är bullriga, kan det tillåta luckor och missmatchningar för att hantera variationer REF.
14,326,259
Conserved pathways within bacteria and yeast as revealed by global protein network alignment
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Biology', 'Medicine']}
83,133
Vi föreslår Tvåspråkigt-konstruerade Recursive Auto-encoders (BRAE) att lära semantiska fras inbäddningar (kompakta vektor representationer för fraser), som kan skilja fraser med olika semantiska betydelser. BRAE tränas på ett sätt som minimerar det semantiska avståndet mellan översättningsekvivalenter och maximerar det semantiska avståndet för icke-translation par samtidigt. Efter träningen lär sig modellen att inbädda varje fras semantiskt på två språk och lär sig också hur man omvandlar semantiskt inbäddat utrymme på ett språk till det andra. Vi utvärderar vår föreslagna metod på två end-to-end SMT uppgifter (fras tabell beskärning och avkodning med frasal semantiska likheter) som måste mäta semantisk likhet mellan en källfras och dess översättningskandidater. Omfattande experiment visar att BRAE är anmärkningsvärt effektivt i dessa två uppgifter.
Tvåspråkigt inbäddade frasar utvecklades i REF.
18,380,505
Bilingually-constrained Phrase Embeddings for Machine Translation
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,134
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Ytterligare förbättringar ledde till toppmoderna CNN av bättre prestanda genom införandet av regionala förslag som bland annat skapade det snabbare regionbaserade konvolutionella neurala nätverket (Faster R-CNN; REF ).
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,135
Prestandaprognoser över plattformar blir allt viktigare eftersom utvecklare kan välja mellan många olika utförandeplattformar. Den största utmaningen återstår att göra exakta förutsägelser till en låg kostnad för olika arkitekturer. I detta dokument härleder vi en prisvärd metod som närmar sig plattformsoberoende prestandaöversättning baserat på relativ prestanda mellan två plattformar. Vi hävdar att relativ prestanda kan observeras utan att köra en parallell tillämpning i sin helhet. Vi visar att det räcker att observera mycket korta partiella utföranden av en ansökan eftersom de flesta parallella koder är iterativa och beter sig förutsägbart efter en minimal startperiod. Detta nya förutsägelsesätt är observationsbaserat. Det kräver inte programmodellering, kodanalys eller arkitektonisk simulering. Våra prestandaresultat med hjälp av verkliga plattformar och produktionskoder visar att förutsägelser som härrör från partiella utföranden kan ge hög noggrannhet till en låg kostnad. Vi bedömer också begränsningarna i vår modell och identifierar framtida forskningsinriktningar på observationsbaserade resultatprognoser.
Yang m.fl. REF-profilerat partiellt genomförande av en ansökan på olika plattformar för att dra en relativ full tillämpningsprestanda.
6,316,860
Cross-Platform Performance Prediction of Parallel Applications Using Partial Execution
{'venue': "ACM/IEEE SC 2005 Conference (SC'05)", 'journal': "ACM/IEEE SC 2005 Conference (SC'05)", 'mag_field_of_study': ['Computer Science']}
83,136
Vi föreslår ett nytt monocular visual odometrie (VO) system som heter UnDeepVO i detta papper. UnDeepVO kan uppskatta 6-DoF posen av en monokulär kamera och djupet av dess vy genom att använda djupa neurala nätverk. Det finns två framträdande drag i den föreslagna UnDeepVO: den ena är det oövervakade systemet för djupt lärande, och den andra är den absoluta återhämtningen. Speciellt tränar vi UnDeepVO genom att använda stereobildpar för att återställa skalan men testa den genom att använda monokulära bilder i följd. Därför är UnDeepVO ett monokulärt system. Den förlustfunktion som definieras för utbildning av nätverken baseras på rumslig och temporal tät information. En översikt över systemet visas i bild. 1................................................................ Experimenten på KITTI-datasetet visar att UnDeepVO uppnår bra prestanda när det gäller posenoggrannhet.
I REF författare föreslår ett visuellt odometri (VO) system baserat på oövervakade djupa neurala nätverk tränas över stereobilder och testas med monokulära bilder, som kan uppskatta 6-DoF pose av en monocular kamera.
206,853,077
UnDeepVO: Monocular Visual Odometry Through Unsupervised Deep Learning
{'venue': '2018 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2018 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
83,137
Abstrakt. Support Vector Machines (SVM) har studerats ingående och visat anmärkningsvärd framgång i många tillämpningar. Framgången för SVM är dock mycket begränsad när den tillämpas på problemet med inlärning från obalanserade dataset där negativa fall i hög grad överträffar de positiva fallen (t.ex. När det gäller genprofilering och upptäckt av kreditkortsbedrägerier. I detta dokument diskuteras orsakerna till detta misslyckande och förklaras varför den gemensamma strategin att undersampla utbildningsuppgifterna kanske inte är det bästa valet för SVM. Vi föreslår sedan en algoritm för att övervinna dessa problem som bygger på en variant av SMOTE-algoritmen av Chawla et al, kombinerat med Veropoulos et als olika felkostnadsalgoritm. Vi jämför prestandan för vår algoritm mot dessa två algoritmer, tillsammans med undersampling och vanlig SVM och visar att vår algoritm överträffar dem alla.
Akbani m.fl. REF föreslog en variant av SMOTE-algoritmen kombinerad med Veropoulos et al's olika felkostnadsalgoritm, med stödvektormaskiner som inlärningsmetod.
9,203,634
Applying support vector machines to imbalanced datasets
{'venue': 'In Proceedings of the 15th European Conference on Machine Learning (ECML', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,138
Abstract-Data centers förlitar sig på virtualisering för att tillhandahålla olika tjänster över en delad infrastruktur. Placeringen av de olika tjänsterna och uppgifterna i de fysiska maskinerna är avgörande för hela systemets prestanda. En felplacerad tjänst kan överbelasta vissa nätverkslänkar, leda till överbelastning, eller till och med anslutningsstörningar. Å andra sidan gör övergången till virtuella maskiner det möjligt att omfördela tjänster och ändra trafikmatrisen, vilket leder till effektivare användning av bandbredd. I detta papper föreslår vi en Virtual Machine Placement (VMP) algoritm för att (om)allokera virtuella maskiner i datacenterservrarna, baserat på den aktuella trafikmatrisen, CPU, och minnesanvändning. Analysera bildandet av samhällsmönster i termer av trafik med hjälp av grafteori, kan vi hitta virtuella maskiner som korreleras eftersom de utbyter hög mängd data. Dessa virtuella maskiner är aggregerade och allokerade till servrar så nära varandra som möjligt, vilket minskar trafikstockningarna. Våra simuleringsresultat visar att VMP kunde förbättra trafikdistributionen. I vissa specifika fall kunde vi minska 80 % av kärntrafiken och koncentrera den till nätets utkant.
I REF föreslås ett system för placering av virtuella maskiner på nätet som bygger på omfördelning för att förbättra trafikdistributionen.
562,556
Online traffic-aware virtual machine placement in data center networks
{'venue': '2012 Global Information Infrastructure and Networking Symposium (GIIS)', 'journal': '2012 Global Information Infrastructure and Networking Symposium (GIIS)', 'mag_field_of_study': ['Computer Science']}
83,139
Nyligen har mycket djupa konvolutionella neurala nätverk (CNN) visat enastående prestanda i objektigenkänning och har också varit det första valet för tät klassificering problem såsom semantisk segmentering. Emellertid, upprepade subsampling operationer som pooling eller convolution striding i djupa CNNs leder till en betydande minskning av den ursprungliga bildupplösningen. Här presenterar vi RafineNet, ett generiskt multi-path förfining nätverk som explicit utnyttjar all information som finns tillgänglig längs down-sampling processen för att möjliggöra högupplöst förutsägelse med långdistans resterande anslutningar. På så sätt kan de djupare skikten som fångar upp semantiska funktioner på hög nivå förfinas direkt med hjälp av finkorniga funktioner från tidigare konvolutioner. De enskilda komponenterna i RafineNet använder restanslutningar efter identitetskartläggningen, vilket möjliggör effektiv end-to-end utbildning. Dessutom introducerar vi kedjad resterande pooling, som fångar rika bakgrundssammanhang på ett effektivt sätt. Vi utför omfattande experiment och sätter nya toppmoderna resultat på sju offentliga datauppsättningar. I synnerhet uppnår vi en skärningspunkt-över-union poäng på 83,4 på den utmanande PASCAL VOC 2012 dataset, vilket är det bästa rapporterade resultatet hittills.
RafineNet REF använder Laplacian bildpyramiden för att uttryckligen fånga den information som finns tillgänglig längs nedsamplingsprocessen och utdataprognoser från grov till fin.
5,696,978
RefineNet: Multi-path Refinement Networks for High-Resolution Semantic Segmentation
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
83,140
Abstract-Topology kontroll i ett sensornätverk balanserar belastningen på sensornoder och ökar nätverkets skalbarhet och livslängd. Klustersensorn noder är en effektiv topologi kontroll metod. I detta dokument föreslår vi en ny distribuerad klusterstrategi för långlivade ad hoc-sensornätverk. Vårt föreslagna tillvägagångssätt gör inga antaganden om förekomsten av infrastruktur eller om nodkapacitet, förutom tillgängligheten av flera effektnivåer i sensornoder. Vi presenterar ett protokoll, HEED (Hybrid Energy-Efficient Distribuated clustering), som periodiskt väljer klusterhuvuden enligt en hybrid av noden restenergi och en sekundär parameter, såsom nod närhet till sina grannar eller nod grad. HEED avslutas i Oð1 ska iterationer, ådrar sig låga budskap overhead, och uppnår ganska enhetlig kluster huvud distribution över nätverket. Vi bevisar att, med lämpliga gränser på nodtäthet och intrakluster och intercluster överföringsintervall, kan HEED asymptotiskt säkert garantera anslutning av klustererade nätverk. Simuleringsresultat visar att vårt föreslagna tillvägagångssätt är effektivt för att förlänga nätverkets livslängd och stödja skalbar dataaggregation.
Den hybridenergieffektiva distribuerade klusteralgoritmen REF använder densitet enligt antalet noder för energieffektiv kommunikation.
2,012,679
HEED: a hybrid, energy-efficient, distributed clustering approach for ad hoc sensor networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
83,141
Abstract-Debugging innebär ofta 1) hitta poängen med misslyckande (det första uttalandet som ger dålig utgång) och 2) hitta och fixa den faktiska buggen. Skriva ut uttalanden och avlusare brytpunkter kan hjälpa till med steg 1. Skärning av programmet tillbaka från värden som används vid felet kan hjälpa med steg 2. Inget tillvägagångssätt är dock idealiskt: Debuggers och utskrifter kan vara klumpiga och tidsödande och baklänges skivor kan vara nästan lika stora som det ursprungliga programmet. Detta dokument tar upp båda problemen. Vi presenterar callstack-känslig skivning, vilket minskar skivor storlek genom att utnyttja serien av samtal aktiva när ett program misslyckas. Vi visar också hur skärningspunkterna ytterligare kan minska skivornas storlek. Vi beskriver sedan en uppsättning verktyg som identifierar felpunkter för program som producerar dålig utgång. Slutligen använder vi vår punkt-of-failure verktyg för en svit av buggy program och utvärdera callstack-känslig skärningspunkt och skiva som tillämpas på felsökning. Callstack-känslig skivning är mycket effektiv: I genomsnitt är en kallstack-känslig skiva ungefär 0,31 gånger storleken på motsvarande full skiva, ner till bara 0.06 tid i bästa fall. Skärningspunkten är mindre imponerande, i genomsnitt, men kan ibland visa sig användbar i praktiken. Index Terms-Static program skivning, callstack-känslig analys, punkter för misslyckande, utdata spårning och tilldelning.
En ny metod baserad på dynamisk 3 se "Daikon Invariant Detector", http://groups.csail.mit.edu/pag/daikon/ slicing föreslås i REF, som genom en callstack-känslig skärningspunkt och skivor skärningspunkten, minskar skivor storlek genom att utnyttja serien av samtal aktiva när ett program misslyckas.
14,742,394
Better Debugging via Output Tracing and Callstack-Sensitive Slicing
{'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']}
83,142
Konvolutionella neurala nätverk (CNN) har dragit ökande intresse för visuell spårning på grund av dess kraftfullhet i funktionsextraktion. De flesta befintliga CNN-baserade spårare behandlar spårning som ett klassificeringsproblem. Dessa spårare är dock känsliga för liknande distraktorer eftersom deras CNN-modeller huvudsakligen fokuserar på klassindelning. För att ta itu med detta problem använder vi självstruktur information om objekt för att skilja det från distraherare. Speciellt använder vi återkommande neurala nätverk (RNN) för att modellera objektstruktur, och införliva den i CNN för att förbättra dess robusthet till liknande distraktorer. Med tanke på att de konvolutionella skikten i olika nivåer kännetecknar objektet från olika perspektiv, använder vi flera RNN för att modellera objektstrukturen i olika nivåer respektive. Omfattande experiment på tre referensvärden, OT-B100, TC-128 och VOT2015, visar att den föreslagna algoritmen överträffar andra metoder. Koden släpps vid
SANet REF införlivar återkommande neurala nätverk i CNNs för att modellera strukturinformationen inom ett objekt utöver den traditionella semantiska informationen.
6,583,681
SANet: Structure-Aware Network for Visual Tracking
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'mag_field_of_study': ['Computer Science']}
83,144
Abstract-convolutional Neural Networks (CNN) har gjort anmärkningsvärda framsteg på scenen erkännande, delvis på grund av dessa nyligen storskaliga scen dataset, såsom platser och platser2. Scenkategorier definieras ofta av information på flera nivåer, inklusive lokala objekt, global layout och bakgrundsmiljö, vilket leder till stora variationer inom klassen. Med det ökande antalet scenkategorier har dessutom märkningsmångfald blivit ytterligare en viktig fråga i den storskaliga klassificeringen. Detta dokument är inriktat på erkännande av storskaliga scener och ger två viktiga bidrag för att ta itu med dessa frågor. För det första föreslår vi en CNN-arkitektur med flera upplösningar som fångar visuellt innehåll och struktur på flera nivåer. CNN med flera upplösningar består av CNN med grov upplösning och CNN med fin upplösning som kompletterar varandra. För det andra utformar vi två kunskapsstyrda disambigeringsmetoder för att hantera problemet med märkningsmångfald. (i) Vi utnyttjar kunskapen från förvirringsmatrisen som beräknas på valideringsdata för att slå samman tvetydiga klasser till en superkategori. (ii) Vi använder kunskapen om extra nätverk för att producera en mjuk etikett för varje bild. Sedan används superkategorierna eller de mjuka etiketterna för att vägleda CNN-utbildningen på Places2. Vi utför omfattande experiment på tre storskaliga bilddataset (ImageNet, Platser och Platser2), som visar effektiviteten i vår strategi. Dessutom deltar vår metod i två stora scenigenkänningsutmaningar, och uppnår den andra platsen på Places2-utmaningen i ILSVRC 2015, och den första platsen på LSUN-utmaningen i CVPR 2016. Slutligen testar vi direkt de inlärda representationerna på andra scenriktmärken och får de nya toppmoderna resultaten på MIT Indoor67 (86,7%) och SUN397 (72,0%). Vi släpper koden och modellerna på https://github.com/wanglimin/MRCNN-Scene-Recognition.
Detta problem kan lindras genom att anta en CNN-arkitektur med flera upplösningar, REF, som består av grova CNN-upplösningar och finupplösnings CNN.
7,459,313
Knowledge Guided Disambiguation for Large-Scale Scene Classification with Multi-Resolution CNNs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,145
Det finns en enorm marknad för tillämpningsspecifika processorer som används inom inbyggda system. Denna marknad drivs av konsumenternas krav (t.ex. nya produkter, mer funktionalitet och flexibilitet, produktdigitalisering, bättre prestandakostnadsförhållande, portabilitet) och processordesign (dvs. vad vi kan erbjuda). Att vara framgångsrik på denna marknad kräver en kort tid till marknaden, vilket kräver användning av automatiserade konstruktionsverktyg. Dessa verktyg bör inte bara bidra till en snabb generering av en specifik processor, utan också göra det möjligt för konstruktören att snabbt och kvantitativt undersöka en stor uppsättning alternativa lösningar. Därför bör dessa verktyg baseras på en flexibel och programmerbar processormall. I detta dokument föreslår vi användningen av Transport Triggered Architectures (TTA) för en sådan processor mall. TTA kan jämföras med VLIWs; båda kan utnyttja kompileringstiden tillgängliga undervisningsnivå parallellism. TTA är dock programmerade på ett annat sätt. TTAs kombinerar en uppsättning intressanta funktioner; förutom att vara fullt programmerbar, de har gynnsamma skalegenskaper, de enkelt införliva godtycklig funktionalitet, och deras organisation är väl strukturerad, vilket möjliggör enkel och automatisk design. I tidningen förklaras dessa drag. Baserat på denna mall har en uppsättning designverktyg utvecklats; de innehåller en parallelliserande C/C++ kompilator som utnyttjar den tillgängliga processorn och applikationskonvergensen, en processorgenerator, simulatorer, profilerare och ett verktyg för arkitekturprospektering; dessa verktyg är integrerade i ett grafiskt användargränssnitt. I dokumentet beskriver vi inom kort dessa verktyg och visar hur de kan tillämpas på en viss applikation. Detta exempel program tas från bildbehandlingsområdet. Det kommer att visas hur verktygen hjälper till att utforska många lösningar, inklusive de som innehåller tillämpningsspecifika funktioner.
De Transport-Trigged Architectures (TTA) REF liknar VLIWs i det att det finns ett stort antal parallella beräkningar som anges i varje instruktion.
14,198,926
Using Transport Triggered Architectures for Embedded Processor Design
{'venue': 'Integrated Computer-Aided Engineering', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,146
Affärsprocesser som spänner över organisatoriska gränser beskriver samspelet mellan flera parter som arbetar mot ett gemensamt mål. De uttrycker också affärsregler som styr beteendet i processen och förklarar för att uttrycka förändringar som återspeglar nya affärsmål och nya marknadssituationer. I vårt tidigare arbete utvecklade vi ett serviceförfrågningsspråk och stödramar som gör det möjligt för användare att formulera sina önskemål mot standard affärsprocesser. I detta dokument utvidgar vi detta tillvägagångssätt genom att presentera en ram som automatiskt kan koppla ihop affärsregler med relevanta processer som är involverade i en användarbegäran. Denna ram planerar och övervakar genomförandet av begäran mot tjänster som ligger till grund för dessa processer. Definitioner och klassificeringar av affärsregler (namngivna påståenden i tidningen) ges tillsammans med ett påståendespråk för att uttrycka dem. Ramverket kan hantera den icke-determinism som är typisk för tjänsteorienterade datormiljöer och bygger på att planering och utförande kopplas samman.
I REF införs ett påståendespråk för att uttrycka affärsregler och en ram för att planera och övervaka genomförandet av dessa regler.
316,380
Associating assertions with business processes and monitoring their execution
{'venue': "ICSOC '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,147
Virtual Machine (VM) miljöer (t.ex. VMware och Xen) upplever en återuppgång av intresse för olika användningsområden, inklusive server konsolidering och delad hosting. Ett programs prestanda i en virtuell maskinmiljö kan skilja sig markant från dess prestanda i en icke-virtualiserad miljö på grund av interaktioner med den underliggande virtuella maskinmonitorn och andra virtuella maskiner. Dock är få verktyg för närvarande tillgängliga för att hjälpa felsökning prestandaproblem i virtuella maskinmiljöer. I det här dokumentet presenterar vi Xenoprof, ett systemomfattande verktyg för statistisk profilering som implementerats för den virtuella maskinmiljön i Xen. Verktygslådan möjliggör samordnad profilering av flera virtuella maskiner i ett system för att få distribution av maskinvaruhändelser som klockcykler och cache och TLB missar. Vi använder vår verktygslåda för att analysera prestanda overheads som uppstår av nätverksprogram som körs i Xen VMs. Vi fokuserar på nätverksapplikationer eftersom det är relativt dyrt att virtualisera I/O-enheter i nätverk. Våra experimentella resultat kvantifierar Xens prestanda omkostnader för nätverksvirtualisering av I/O-enheter i en- och flera processorsystem. Våra resultat identifierar de viktigaste källorna till denna overhead som bör vara fokus för Xen optimering insatser. Vi visar också hur vårt verktyg för profilering användes för att avslöja och lösa prestandafel som vi stötte på i våra experiment som orsakade oväntat applikationsbeteende.
I liknande rader av Oprofile för Linux, Menon REF hade använt Xenoprof, en system-omfattande statistisk profilering verktyg för Xen, för att utvärdera prestanda overhead för nätverk I/O-enheter.
15,691,128
Diagnosing performance overheads in the xen virtual machine environment
{'venue': "VEE '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,148
Intel Software Guard Extension (SGX) är en hårdvarubaserad betrodd körning miljö (TEE) som möjliggör säker beräkning utan att lita på någon underliggande programvara, såsom operativsystem eller till och med hårdvara firmware. Det ger starka säkerhetsgarantier, nämligen sekretess och integritet, till en enklave (dvs. ett program som körs på Intel SGX) genom solid hårdvarubaserad isolering. Men en ny kontrollerad-kanal attack (Xu et al., Oakland 2015), även om det är en out-of-scope attack enligt Intel SGX hotmodell, visade att en skadlig OS kan härleda grov-grained kontroll flöden av en enklave via en serie av sidfel, och en sådan sida-kanal kan vara svårt för säkerhetskänsliga program. I den här artikeln utforskar vi en ny, men ändå kritisk, sidokanalsattack mot Intel SGX, kallad en grenskuggningsattack, som kan avslöja finkorniga kontrollflöden (dvs. varje gren) av ett enklavprogram som körs på riktig SGX-hårdvara. Grundorsaken till denna attack är att Intel SGX inte rensar grenens historia när man byter från enklavläge till non-enclave-läge, vilket lämnar de finkorniga spåren till omvärlden genom en gren-prediction sidokanal. Att utnyttja kanalen är dock inte så enkelt i praktiken, eftersom 1) att mäta felpreskriptionsstraff som baseras på timing är alltför inkorrekt för att skilja mellan finkorniga kontrollflödesförändringar och 2) att kräva sofistikerad kontroll över enklavens utförande för att tvinga dess utförande till de intressanta kodblocken. För att övervinna dessa utmaningar utvecklade vi två nya exploateringstekniker: 1) Intel PT- och LBR-baserade historieinfererande tekniker och 2) APIC-baserad teknik för att kontrollera genomförandet av enklavprogram på ett finkornigt sätt. Som ett resultat kan vi demonstrera vår attack genom att bryta den senaste tidens säkerhetskonstruktioner, inklusive ORAM-system, Sanctum, SGX-Shield och T-SGX. Inte begränsa vårt arbete till själva attacken, vi noggrant studerat genomförbarheten av hårdvarubaserade lösningar (t.ex., filial historia clearing) och föreslog också en mjukvarubaserad motåtgärd, kallas Zigzagger, för att mildra grenen skuggning attack i praktiken. ArXiv:1611.06952v2 [cs.CR] 25 nov 2016 1 /* bignum.c */ 2 statiska int mpi_montmul(mbedtls_mpi *A, const mbedtls_mpi *B, 3 const mbedtls_mpi *N, mbedtls_mpi_uint mm, 4 const mbedtls_mpi *T) { 5 size_t i, n, m; 6 mbedtls_mpi_uint u0, u1, *d; 7 8 d = T->p; n = N->n; m = (B->n < n)? B-> n; 9 10 för (i = 0; i < n; i++) { 11 u0 = A->p[i]; 12 u1 = (d[0] + u0 * B->p[0]) * mm; 13 14 mpi_mul_hlp(m, B->p, d, u0); 15 mpi_mul_hlp(n, N->p, d, u1); 16 17 *d++ = u0, d[n+1] = 0; 18 } 19 20, om (mbedtls_mp_cmp_abs(A, N) >= 0) { 21 och mpi_sub_hlp(n, N->p, A->p); 22 till i = 1; 23 till 24 Den gren skuggning attack kan dra slutsatsen om en dummy subtraktion har utfört eller inte.
Lee och Al. visa en attack med hjälp av filialens historia REF.
310,483
Inferring Fine-grained Control Flow Inside SGX Enclaves with Branch Shadowing
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,149
Abstract-This paper diskuterar en routing protokoll som använder multi-agents för att minska nätstockningar för en mobil ad hoc NETwork (MANET). MANET är ett trådlöst multihopnätverk där nätverkskomponenter som PC, PDA och mobiltelefoner är mobila. Komponenterna kan kommunicera med varandra utan att gå via en server. Två typer av agenter är engagerade i routing. En är en Routing Agent som samlar in information om överbelastning av nätet samt länkfel. Den andra är ett meddelande Agent som använder denna information för att komma till sina destination noder. MAs motsvarar datapaket och bestämmer deras riktning självständigt med hjälp av en utvärderingsfunktion. Vi utvecklade både en simuleringsmiljö och protokoll, och utförde simuleringar under olika förutsättningar av mobilitet och trafikmönster för att visa effektiviteten i vårt tillvägagångssätt.
Kazuya Nishimura et al REF föreslog ett routingprotokoll som minskar överbelastningen av nätet för MANET med hjälp av multiagenter.
11,944,837
A Multi-Agent Routing Protocol With Congestion Control For MANET
{'venue': 'ECMS 2007 Proceedings edited by: I. Zelinka, Z. Oplatkova, A. Orsoni', 'journal': 'ECMS 2007 Proceedings edited by: I. Zelinka, Z. Oplatkova, A. Orsoni', 'mag_field_of_study': ['Computer Science']}
83,150
I detta dokument föreslås en Agile Aggregateing Multi-Level feaTure ram (Agile Amulet) för framträdande objektdetektering. Agile Amulet bygger på tidigare arbeten för att förutsäga saliency kartor med hjälp av multi-level convolutional funktioner. Jämfört med tidigare arbeten, använder Agile Amulet några viktiga innovationer för att förbättra utbildning och testhastighet samtidigt öka förutsägelse noggrannhet. Mer specifikt introducerar vi först en kontextuell uppmärksamhet modul som snabbt kan belysa de mest framträdande objekt eller regioner med kontextuella pyramider. Således styr den effektivt den lågskikts-konvolutionella funktionen lärande och talar om för ryggradsnätverket var man ska leta. Den sammanhangsberoende uppmärksamhetsmodulen är en helt konvolutionell mekanism som samtidigt lär sig kompletterande funktioner och förutsäger Saliency scores vid varje pixel. Dessutom föreslår vi en ny metod för att aggregera djupkonvolutionella funktioner på flera nivåer. Som ett resultat av detta kan vi använda de integrerade sidoutmatningsfunktionerna enbart i förträngda konvolutionsnätverk, vilket avsevärt minskar modellparametrarna som leder till en modellstorlek på 67 MB, ungefär hälften av Amulet. Jämfört med andra metoder baserade på djupinlärning är Agile Amulet mycket lättare, löper snabbare (30 fps i realtid) och uppnår högre prestanda på sju offentliga riktmärken både kvantitativt och kvalitativt.
Zhang m.fl. I REF föreslogs en kombination av multi-level convolutional features och kontextuell uppmärksamhetsmodul för att generera solidity map.
3,444,165
Agile Amulet: Real-Time Salient Object Detection with Contextual Attention
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,151
Abstrakt. I detta dokument introducerar vi en ny enkel strategi i egg-searching av en graf, vilket är användbart för de olika subgraph listing problem. Genom att tillämpa strategin får vi följande fyra algoritmer. Den första listar alla trianglar i en graf G i O(a(G) Alla algoritmer kräver linjärt utrymme. Vi etablerar också en övre gräns på a(G) för en graf G: förekommer. I efterföljande avsnitt kommer vi att visa att proceduren ovan kräver O(a(G)m) tid. Genom hela detta papper m är antalet kanter av en graf G, n är antalet hörn av G, och a(G) är arboricity av G, det vill säga det minsta antalet kant-söndrade spännande skogar som G kan brytas ner [5]. Vi använder den ganska obekanta grafen invariant a(G) som parameter för att begränsa algoritmernas körtid. Strategin ger enkla algoritmer för problem att lista vissa typer av subgrafer i en graf. Typerna av dessa subgrafer inkluderar "triangel, fyrhörning", "fullständig subgraf av en fast ordning" och "clique". Våra algoritmer är lika snabba som de kända om någon, och en faktor n reduceras ofta till a(G) i tid komplexitet. I 2 ger vi en övre gräns på a(G) för en allmän graf G: a(G) <-
Chiba och Nishizeki REF använder en rankningsalgoritm som räknar det totala antalet 4-cykler i en graf i O αm tid, där α är Arboricity av grafen.
207,051,803
Arboricity and subgraph listing algorithms
{'venue': 'SIAM J. Comput.', 'journal': 'SIAM J. Comput.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,152
Abstract-Wireless sensornätverk utvecklas från särskilda tillämpningsspecifika plattformar till integrerad infrastruktur som delas av flera applikationer. De delade sensornätverken erbjuder inneboende fördelar när det gäller flexibilitet och kostnad eftersom de möjliggör dynamisk resursdelning och fördelning mellan flera tillämpningar. Sådana gemensamma system står inför det kritiska behovet av tilldelning av noder för att möta ansökningar för att förbättra den övergripande kvaliteten på övervakning (QoM) under resursbegränsningar. För att tillgodose detta behov presenteras i detta dokument verktygsbaserad tilldelnings- och distributionsmiljö för flera tillämpningar (UMADE), ett integrerat system för spridning av tillämpningar för delade sensornätverk. I skarp kontrast till traditionella tillvägagångssätt som allokerar applikationer baserade på cybermått (t.ex. datorresursutnyttjande), UMADE antar ett cyberfysiskt system tillvägagångssätt som dynamiskt allokerar noder till applikationer baserade på deras QoM av de fysiska fenomenen. Den viktigaste nyheten med UMADE är att den är utformad för att hantera de internode QoM beroenden som är typiska i cyber-fysiska applikationer. Dessutom tillhandahåller UMADE en integrerad systemlösning som stöder end-to-end-processen av (1) QoM-specifikation för applikationer, (2) QoM-medveten programallokering, (3) applikationsdistribution över trådlösa multihopnätverk och (4) adaptiv omfördelning av applikationer som svar på nätverksdynamiken. UMADE har implementerats på TinyOS och Agilla virtuella maskin för Telos motes. UMADEs genomförbarhet och effektivitet har visats på en 28-nod trådlös sensornätsprovbädd i samband med byggnadsautomation.
UMADE REF är ett integrerat system för att fördela och distribuera applikationer i delade sensornätverk baserat på begreppet kvalitetskontroll (QoM).
1,220,396
Multi-Application Deployment in Shared Sensor Networks Based on Quality of Monitoring
{'venue': '2010 16th IEEE Real-Time and Embedded Technology and Applications Symposium', 'journal': '2010 16th IEEE Real-Time and Embedded Technology and Applications Symposium', 'mag_field_of_study': ['Computer Science']}
83,153
Abstract-Vi presenterar en metod för att upptäcka objektmodeller från 3D-maskor av inomhusmiljöer. Vår algoritm först sönderdela scenen i en uppsättning kandidat mesh segment och sedan ranka varje segment enligt sin "objektivitet" - en kvalitet som skiljer objekt från skräp. För att göra detta föreslår vi fem formåtgärder: kompaktitet, symmetri, jämnhet och lokal och global konvexitet. Vi föreslår dessutom en återkommande åtgärd, kodifiera intuitionen att ofta förekommande geometrier är mer benägna att motsvara kompletta objekt. Vi utvärderar vår metod i både övervakade och oövervakade system på en datauppsättning av 58 inomhusscener som samlats in med hjälp av en Open Source implementation av Kinect Fusion [1]. Vi visar att vår strategi kan tillförlitligt och effektivt skilja objekt från skräp, med genomsnittlig precision poäng.92. Vi gör vår datauppsättning tillgänglig för allmänheten.
En annan segmenteringsbaserad metod baserad på formanalys med hjälp av kompaktitet, symmetri, jämnhet, och lokal och global konvexitet av segment och deras upprepning föreslås i REF.
1,758,445
Object discovery in 3D scenes via shape analysis
{'venue': '2013 IEEE International Conference on Robotics and Automation', 'journal': '2013 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,154
Abstract-Den sekventiella mönstret i den mänskliga rörelsen är en av de viktigaste aspekterna för lokalisering rekommendationer i geosociala nätverk. Befintliga plats rekommenderare måste få tillgång till användarnas råa incheckningsdata för att minera deras sekventiella mönster som väcker allvarliga plats integritetsintrång. I detta dokument föreslår vi ett nytt ramverk för integritetsbevarande Location REcommendation (PLORE) för att ta itu med denna integritetsutmaning. För det första använder vi den n: e order-tillsatsen Markov-kedjan för att utnyttja användarnas sekventiella mönster för lokaliseringsrekommendationer. Vidare skapar vi den probabilistiska differentiella integritetsmekanismen för att nå en bra kompromiss mellan hög rekommendationsnoggrannhet och strikt skydd av platsens integritet. Slutligen genomför vi omfattande experiment för att utvärdera prestandan hos PLORE med hjälp av tre storskaliga verkliga datamängder. Omfattande experimentella resultat visar att PLORE ger effektiva och mycket exakta lokaliseringsrekommendationer och garanterar strikt integritetsskydd för användarincheckningsdata i geosociala nätverk.
Zhang m.fl. I REF föreslogs en ny, probabilistisk, differentierad ram för rekommendationer om personlig integritet för att bevara platsen.
53,548,394
Enabling Probabilistic Differential Privacy Protection for Location Recommendations
{'venue': None, 'journal': 'IEEE Transactions on Services Computing', 'mag_field_of_study': ['Computer Science']}
83,155
Nuvarande statistiska tolkar tenderar att prestera bra endast på sin utbildning domän och närliggande genrer. Även om starka resultat på ett fåtal relaterade domäner är tillräckligt för många situationer, är det fördelaktigt för tolker att kunna generalisera till en mängd olika domäner. Vid tolkning av dokumentsamlingar som omfattar heterogena domäner (t.ex. webben), är den optimala tolkningsmodellen för varje dokument vanligtvis inte självklar. Vi studerar detta problem som en ny uppgift - multiple source parser anpassning. Vårt system tränar på corpora från många olika domäner. Den lär sig inte bara statistik över dessa områden utan kvantitativa mått på domänskillnader och hur dessa skillnader påverkar tolkningsnoggrannheten. Med tanke på en specifik måltext föreslår det resulterande systemet linjära kombinationer av parsingmodeller som är utbildade på källkorporan. Testad över sex domäner, vårt system överträffar alla icke-orrakla baslinjer inklusive den bästa domänoberoende tolkning modell. Därför kan vi visa värdet av att anpassa tolkningsmodeller till specifika domäner.
En alternativ formulering av domänanpassning tränar på olika corpora från många olika domäner, sedan använder linjära kombinationer av modeller tränade på de olika corpora REF.
10,585,087
Automatic Domain Adaptation for Parsing
{'venue': 'Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,156
Att applicera konvolutionella neurala nätverk på stora bilder är beräknings dyrt eftersom mängden beräkningsskalor linjärt med antalet bild pixlar. Vi presenterar en ny återkommande neural nätverksmodell som är kapabel att extrahera information från en bild eller video genom att adaptivt välja en sekvens av regioner eller platser och endast bearbeta de utvalda regionerna vid hög upplösning. Liksom konvolutionella neurala nätverk, den föreslagna modellen har en grad av översättning invariant inbyggd, men mängden av beräkningar den utför kan styras oberoende av indata bildstorlek. Även om modellen är icke-differentierad, kan den tränas med hjälp av förstärkande inlärningsmetoder för att lära sig uppgiftsspecifika strategier. Vi utvärderar vår modell på flera bildklassificeringsuppgifter, där den avsevärt överträffar en konvolutionell neural nätverk baslinje på belamrade bilder, och på en dynamisk visuell kontroll problem, där det lär sig att spåra ett enkelt objekt utan en uttrycklig träningssignal för att göra det.
Mnih REF utbildade uppgiftsspecifika strategier med hjälp av förstärkande inlärningsmetoder.
17,195,923
Recurrent Models of Visual Attention
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,157
Det är välkänt att uttalanden ger en hel del information om talaren utöver deras semantiska innehåll. En sådan typ av information består av ledtrådar till talarens personlighetsdrag, den mest grundläggande dimensionen av variation mellan människor. Den senaste tidens arbete utforskar den automatiska upptäckten av andra typer av pragmatiska variationer i text och samtal, såsom känslor, bedrägeri, talarkarisma, dominans, synvinkel, subjektivitet, åsikt och känsla. Personlighet påverkar dessa andra aspekter av den språkliga produktionen, och därmed kan personlighetsigenkänning vara till nytta för dessa uppgifter, förutom många andra potentiella tillämpningar. Hittills finns det emellertid inte mycket arbete med att automatiskt erkänna personlighetsdrag. Denna artikel rapporterar experimentella resultat för erkännande av alla Big Five personlighetsdrag, i både samtal och text, med användning av både själv- och observatörsklassificeringar av personlighet. Medan andra arbeten rapporterar klassificeringsresultat experimenterar vi med klassificering, regression och rankningsmodeller. För varje modell analyserar vi effekten av olika funktionsuppsättningar på noggrannheten. Resultat visar att för vissa egenskaper, någon typ av statistisk modell presterar betydligt bättre än baslinjen, men ranking modeller presterar bäst totalt sett. Vi presenterar också ett experiment som antyder att rankingmodeller är mer exakta än flera klasser för modellering personlighet. Dessutom presterar igenkännande modeller tränade på observerad personlighet bättre än modeller tränade med hjälp av självrapporter, och den optimala funktionen beror på personlighetsdrag. En kvalitativ analys av de lärda modellerna bekräftar tidigare fynd som kopplar samman språk och personlighet, samtidigt som många nya språkliga markörer avslöjas.
Mairesse m.fl. REF föreslog klassificering, regression och rankningsmodeller för att lära sig de fem stora personlighetsdragen hos en talare.
6,030,672
Using linguistic cues for the automatic recognition of personality in conversation and text
{'venue': 'Journal of Artificial Intelligence Research (JAIR', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,158
Detta papper presenterar en enkel oövervakad lärande algoritm för att klassificera recensioner som rekommenderas (tummar upp) eller inte rekommenderas (tummar ner). Klassificeringen av en översyn förutses av den genomsnittliga semantiska orienteringen av fraserna i recensionen som innehåller adjektiv eller adverbs. En fras har en positiv semantisk orientering när den har goda associationer (t.ex. "subtle nyanser") och en negativ semantisk orientering när den har dåliga associationer (t.ex. "mycket cavalier"). I detta dokument beräknas en frass semantiska inriktning som den ömsesidiga informationen mellan den givna frasen och ordet "utmärkt" minus den ömsesidiga informationen mellan den givna frasen och ordet "dålig". En recension klassas som rekommenderad om den genomsnittliga semantiska orienteringen för dess fraser är positiv. Algoritmen uppnår en genomsnittlig noggrannhet på 74% när den utvärderas på 410 recensioner från Epinions, provtagna från fyra olika domäner (recensioner av bilar, banker, filmer och resedestinationer). Noggrannheten varierar från 84% för bilrecensioner till 66% för filmrecensioner.
I denna rad föreslog REF en oövervakad inlärningsalgoritm för att beräkna ett ords semantiska orientering (SO).
484,335
Thumbs Up Or Thumbs Down? Semantic Orientation Applied To Unsupervised Classification Of Reviews
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,159
Abstrakt. Ett enhetligt djupt neuralt nätverk, betecknade den flerskaliga CNN (MS-CNN), föreslås för snabb flerskalig objektdetektering. MS-CNN består av ett delnätverk för förslag och ett delnätverk för upptäckt. I förslagets delnätverk utförs detektion på flera utdatalager, så att mottagliga fält matchar objekt av olika skalor. Dessa kompletterande skalspecifika detektorer kombineras för att producera en stark flerskalig objektdetektor. Det enhetliga nätverket är lärt end-to-end, genom att optimera en multi-task förlust. Feature upsampling by deconvolution utforskas också, som ett alternativ till input upsampling, för att minska minnes- och beräkningskostnaderna. Toppmoderna objektdetekteringsprestanda, vid upp till 15 fps, rapporteras om datauppsättningar, såsom KITTI och Caltech, som innehåller ett stort antal små objekt.
Cai m.fl. I REF föreslogs ett CNN (MS-CNN) som är en enhetlig modell för detektion vid olika mellanliggande nätskikt.
9,232,270
A Unified Multi-scale Deep Convolutional Neural Network for Fast Object Detection
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,160
Bakgrund: På grund av den vetenskapliga metodens natur är forskningsartiklar rika på spekulativa och preliminära uttalanden, även kallade häckar. Vi utforskar ett språkligt motiverat förhållningssätt till problemet med att erkänna ett sådant språk i biomedicinska forskningsartiklar. Vår strategi bygger på tidigare språkligt arbete samt befintliga lexiska resurser för att skapa en ordbok av säkringar och utvidga den genom att införa syntaktiska mönster. Dessutom erkänner vi att säkringsklausuler skiljer sig åt i fråga om spekulativ styrka, vi ger dem vikter på två sätt: automatiskt använda informationsvinsten (IG) mäta och halvautomatiskt baserat på deras typer och centralitet till säkring. Vikter av säkringstecken används för att bestämma spekulativ styrka av meningar. Resultat: Vi testar vårt system på två offentligt tillgängliga säkringsdata. När det gäller datauppsättningen för fruktflugor uppnår vi en precisionsrecall breakeven-punkt (BEP) på 0,85 med hjälp av det halvautomatiska viktningssystemet och ett lägre BEP på 0,80 med informationsökningsvägningsschemat. Dessa resultat är konkurrenskraftiga med de tidigare rapporterade bästa resultaten (BEP på 0,85). På BMC-datauppsättningen ger semiautomatisk viktning ett BEP på 0,82, en statistiskt signifikant förbättring (p <0,01) jämfört med det tidigare rapporterade bästa resultatet (BEP på 0,76), medan viktning för informationsvinst ger ett BEP på 0,70. Våra resultat visar att spekulativt språk kan erkännas framgångsrikt med en språkligt motiverad strategi och bekräftar att valet av säkringsanordningar påverkar den spekulativa styrkan i meningen, som kan fångas rimligen genom att vikta säkringssignalerna. Den förbättring som uppnåtts på BMC-datasetet med ett semiautomatiskt viktningssystem tyder på att vårt språkligt inriktade tillvägagångssätt är mer portabelt än de maskininlärningsbaserade tillvägagångssätten. Lägre prestanda som erhålls med information vinna viktningsschemat tyder på att denna metod kan dra nytta av en större, manuellt kommenterade corpus för att automatiskt inducera vikterna.
Kilicoglu och Bergler REF tillämpar ett språkligt motiverat tillvägagångssätt för samma klassificeringsuppgift genom att använda kunskaper från befintliga lexiska resurser och införliva syntaktiska mönster.
8,898,609
Recognizing speculative language in biomedical research articles: a linguistically motivated perspective
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,161
I den här artikeln tar vi upp en till synes enkel fråga: Finns det en universell paketplaneringsalgoritm? Mer exakt, vi analyserar (både teoretiskt och empiriskt) om det finns en enda paket schemaläggningsalgoritm som, på en nätverksnivå, kan matcha resultaten av varje given schemaläggningsalgoritm. Vi finner att svaret i allmänhet är "nej". Vi visar dock teoretiskt att den klassiska schemaläggningsalgoritmen Least Slack Time First (LSTF) kommer närmast att vara universell och empiriskt visa att LSTF nära, men inte perfekt, kan spela upp ett brett spektrum av schemaläggningsalgoritmer i realistiska nätverksinställningar. Vi utvärderar sedan om LSTF kan användas i praktiken för att uppfylla olika nätverksomfattande mål genom att titta på tre populära prestandamått (medel FCT, svanspaketförseningar och rättvisa); vi finner att LSTF presterar jämförbart med toppmoderna för var och en av dem.
UPS REF delar vårt mål om flexibel paketplanering genom att söka en enda schemaläggningsalgoritm som är universell och kan efterlikna alla schemaläggningsalgoritmer.
1,307,979
Universal Packet Scheduling
{'venue': 'HotNets-XIV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,162
Kommunikation overhead är en av de dominerande faktorerna som påverkar prestanda i avancerade datorsystem. För att minska den negativa effekten av kommunikation överlappar programmerare kommunikation och beräkning genom att använda asynkron kommunikation primitiver. Detta ökar kod komplexiteten, kräver mer utvecklingsarbete och gör mindre läsbara program. I detta dokument presenteras hybridanvändningen av MPI och SMPS (SMP superscalar, en uppgiftsbaserad delad minnesprogrammeringsmodell), vilket gör det möjligt för programmeraren att enkelt införa den asynkroni som krävs för att överlappa kommunikation och beräkning. Vi beskriver också genomförandefrågor i SMPS körtid som stöder dess effektiva samverkan med MPI. Vi demonstrerar hybridanvändning av MPI/SMPS med fyra applikationskärnor (matris multiplicera, Jacobi, konjugerad lutning och NAS BT) och med det högpresterande LINPACK-riktmärket. För programkärnorna förbättrar hybridversionerna MPI/SMPSs avsevärt prestandan hos de rena MPI-motsvarigheterna. För LINPACK kommer vi nära den asymptotiska prestandan vid relativt små problemstorlekar och får ändå betydande fördelar vid stora problemstorlekar. Dessutom minskar hybridmetoden MPI/SMPSs avsevärt kod komplexiteten och är mindre känslig för nätverksbandbredd och operativsystem buller än de rena MPI-versionerna.
Det är möjligt att använda hybrid MPI/SMPSs för att stödja kluster med flerkärniga processorer REF.
18,831,354
Overlapping communication and computation by using a hybrid MPI/SMPSs approach
{'venue': "ICS '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,163
Befintliga metoder för visuellt resonemang försöker direkt kartlägga indata till utgångar med hjälp av svart-box arkitekturer utan att uttryckligen modellera de underliggande resonemangsprocesserna. Som ett resultat, dessa svart-box modeller lär sig ofta att utnyttja fördomar i data snarare än att lära sig att utföra visuella resonemang. Inspirerad av modulnätverk föreslår detta dokument en modell för visuellt resonemang som består av en programgenerator som konstruerar en uttrycklig representation av den resonemangsprocess som ska utföras, och en exekveringsmotor som utför det resulterande programmet för att producera ett svar. Både programgeneratorn och exekveringsmotorn implementeras av neurala nätverk, och tränas med hjälp av en kombination av backpropagation och REINFORCE. Med hjälp av CLEVR-riktmärket för visuellt resonemang visar vi att vår modell avsevärt överträffar starka baslinjer och generaliserar bättre i en mängd olika inställningar.
Deras efterföljande modell uppnådde goda resultat på CLEVR genom att kombinera en återkommande programgenerator och en uppmärksam körning motor REF.
31,319,559
Inferring and Executing Programs for Visual Reasoning
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
83,164
Abstract-Discriminativ modell lärande för bild denoisering har nyligen dragit stor uppmärksamhet på grund av dess gynnsamma denoiserande prestanda. I detta dokument tar vi ett steg framåt genom att undersöka konstruktionen av feed-forward denoizing convolutional neural networks (DnCNNs) för att omfamna framstegen i mycket djup arkitektur, lärande algoritm, och regularization metod i bilden denoising. Specifikt, resterande lärande och batch normalisering används för att påskynda utbildningsprocessen samt öka den denoiserande prestanda. Olika från de befintliga diskriminerande denomineringsmodeller som vanligtvis tränar en specifik modell för additivt vitt Gaussiskt buller (AWGN) på en viss bullernivå, vår DnCNN modell kan hantera Gaussian denoising med okänd bullernivå (dvs. blind Gaussian denoising). Med den återstående inlärningsstrategin tar DnCNN implicit bort den latenta rena bilden i de dolda lagren. Denna egenskap motiverar oss att träna en enda DnCNN-modell för att ta itu med flera allmänna bild denoiserande uppgifter som Gaussian denoising, singelbild super-upplösning och JPEG-bildavblockering. Våra omfattande experiment visar att vår DnCNN-modell inte bara kan uppvisa hög effektivitet i flera allmänna bilddenoiserande uppgifter, utan också effektivt implementeras genom att dra nytta av GPU-data.
Denoising Convolutional Neural Network (DnCNN) REF är för närvarande en av de mest använda och väl fungerande övervakade denoisers.
996,788
Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,165
Befintliga metoder för återidentifiering (re-id) beror till största delen enbart på lokal eller global karaktärsrepresentation. Detta bortser från deras gemensamma fördelar och ömsesidiga kompletterande effekter. I detta arbete visar vi fördelarna med att gemensamt lära sig lokala och globala funktioner i ett konvolutionellt neuralt nätverk (CNN) genom att försöka upptäcka korrelerade lokala och globala funktioner i olika sammanhang. Speciellt formulerar vi en metod för gemensamt lärande av lokala och globala funktionsförluster som är utformade för att optimera personens re-id vid användning av endast generiska matchningsmått såsom L2-avståndet. Vi designar en ny CNN-arkitektur för Jointly Learning Multi-Loss (JLML) av lokal och global discriminativ funktionsoptimering ämne samtidigt med samma re-id märkt information. Omfattande jämförande utvärderingar visar fördelarna med denna nya JLML-modell för personer som åter-id över ett brett spektrum av state-of-the-art re-id metoder på fem riktmärken (VIPeR, GRID, CUHK01, CUHK03, Market-1501).
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF föreslog en multi-förlustmodell som kombinerar metrisk inlärning och global klassificering för att upptäcka både lokala och globala funktioner.
3,489,845
Person Re-Identification by Deep Joint Learning of Multi-Loss Classification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,166
Dokumentation av programvaruarkitektur hjälper människor att förstå programvaruarkitekturen i ett system. I praktiken dokumenteras ofta programvaruarkitekturer efter detta faktum, dvs. De bibehålls eller skapas efter det att de flesta av designbesluten har fattats och genomförts. För att hålla arkitekturdokumentationen uppdaterad behöver en arkitekt återhämta sig och beskriva dessa beslut. I detta dokument presenteras ADDRA, ett tillvägagångssätt som en arkitekt kan använda för att återvinna arkitektoniska designbeslut efter detta faktum. ADDRA använder arkitektoniska delta för att ge arkitekten ledtrådar om dessa designbeslut. Detta gör det möjligt för arkitekten att systematiskt återhämta sig och dokumentera relevanta arkitektoniska designbeslut. De återvunna arkitektoniska designbesluten förbättrar dokumentationen av arkitekturen, vilket ökar spårbarheten, kommunikationen och den allmänna förståelsen av ett system.
ADDRA REF utformades för att återställa arkitektoniska designbeslut i ett efter arbetet med faktadokumentation.
14,658,433
Documenting after the fact: Recovering architectural design decisions
{'venue': 'J. Syst. Softw.', 'journal': 'J. Syst. Softw.', 'mag_field_of_study': ['Computer Science']}
83,167
I detta dokument presenteras en enkel men ändå allmän ram för att använda djupa arkitekturer för att lösa problemet med omvänt förstärkande lärande (IRL). I synnerhet föreslår vi att man utnyttjar de djupa nätverkens representationskapacitet och gynnsamma beräkningskomplexitet för att tillnärma komplexa, icke-linjära belöningsfunktioner i scenarier med stora tillståndsutrymmen. Detta leder till en ram med förmågan att göra belöningsprognoser i konstant tid snarare än att skala kubiskt i antalet observerade statliga belöningar. Dessutom visar vi att IRL:s maximala entropiparadigm naturligt lämpar sig för effektiv utbildning av djupa arkitekturer. Metoden överträffar den senaste tekniken när det gäller ett nytt riktmärke med en komplex underliggande belöningsstruktur som representerar ett starkt samspel mellan funktioner, samtidigt som den uppvisar resultat som står i proportion till de senaste metoderna på ett antal fastställda riktmärken med jämförelsevis låg komplexitet.
REF använder ett flerskikts neuralt nätverk för att representera icke-linjära belöningsfunktioner.
16,727,822
Deep Inverse Reinforcement Learning.
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,168
Recursively-konstruerade kopplingar har tidigare använts för att blanda på träd. Vi visar hur man utvidgar denna teknik till icke-trädliknande grafer som t.ex. gitter. Med hjälp av denna metod får vi följande generella resultat. Antag att G är en triangelfri graf och att för vissa Δ ≥ 3 är den maximala G-graden högst Δ. Vi visar att spinnsystemet som består av q-färger av G har en stark rumslig blandning, förutsatt att q > αΔ − γ, där α på 1,76322 är lösningen till α = e, och γ = på 0.47031. Observera att vi inte har någon ytterligare nedre gräns på q eller Δ. Detta är viktigt för oss eftersom vårt huvudsakliga mål är att ha resultat som är tillämpliga på gitter som studeras i statistisk fysik såsom heltal lattice Z d och triangulär lattice. För dessa grafer (i själva verket för alla grafer där avståndet-k grannskapet av en vertex växer sub-exponentiellt i k), innebär stark rumslig blandning att det finns en unik oändlig volym Gibbs åtgärd. Det vill säga, det finns en makroskopisk jämvikt snarare än många. Vårt allmänna resultat ger till exempel en "handproof" av stark rumslig blandning för 7-färger av triangelfria 4-regelbundna grafer. (Datorstödda bevis på detta resultat tillhandahölls av Salas och Sokal (för rektangulär lattice) och av Bubley, Dyer, Greenhill och Jerrum.) Det ger också ett hand bevis på stark rumslig blandning för 5-färger av triangelfria 3-regelbundna grafer. (Ett datorstödd bevis för det speciella fallet med det hexagonala gallret tillhandahölls tidigare av Salas och Sokal.) Mot slutet av pappret visar vi hur vi kan förbättra vår allmänna teknik genom att ta hänsyn till lattisens geometri. Tanken är att konstruera rekursiv koppling från ett system av upprepningar snarare än från en enda upprepning. Vi använder geometrin av lattice för att härleda systemet av upprepningar. Detta ger oss en analys med en horisont av mer än en induktionsnivå, vilket leder till förbättrade resultat. Vi illustrerar denna idé genom att bevisa stark rumslig blandning för q = 10 på lattice Z 3. Slutligen tillämpar vi idén på den triangulära latticen och lägger till beräkningsstöd. Detta ger oss ett (maskinstödd) bevis på stark rumslig blandning för 10-färger av den triangulära lattice. (Ett sådant bevis för 11 färger gavs av Salas och Sokal.) För fullständighet, visar vi också att vår starka rumsliga blandning bevis innebär snabb blandning av Glauber dynamik för provtagning ordentliga färger av grannskap-amenable grafer. (Det är känt att stark rumslig blandning ofta innebär snabb blandning, men befintliga bevis verkar skrivas för Z d.) Således våra starka rumsliga blandningsresultat ger snabb blandning korollärer för grannskap-amenable grafer såsom lattices.
I detta papper kommer vi att förfina tekniken Goldberg, Martin och Paterson introducerade i REF för att visa blandning på kagome lattice för q = 5 färger.
12,157,996
Strong spatial mixing with fewer colours for lattice graphs
{'venue': 'Proc. 45th IEEE Symp. on Foundations of Computer Science', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,169
Nuvarande grafik bearbetningsenheter (GPU) använder den enda instruktion flera tråd (SIMT) utförande modell. Med SIMT utför en grupp logiska trådar så att alla trådar i gruppen utför en enda gemensam instruktion på en viss cykel. För att göra det möjligt för kontrollflödet att avvika inom gruppen trådar serialiserar GPU:er delvis utförandet och följer en enda styrflödesbana åt gången. Utförandet av trådarna i gruppen som inte är på den nuvarande vägen maskeras. De flesta nuvarande GPU:er förlitar sig på en hårdvara reconvergence stack för att spåra flera samtidiga vägar och för att välja en enda väg för utförande. Kontrollflödesvägar trycks på stacken när de avviker och poppas av stacken för att göra det möjligt för trådar att omgruppera och hålla filanvändning högt. Stackens algoritm garanterar optimal rekonvergens för applikationer med strukturerat kontrollflöde när det passerar det strukturerade kontrollflödesträdets djup först. Nackdelen med att använda reconvergence stacken är att endast en enda väg följs, vilket inte maximerar tillgänglig parallellism, förnedrande prestanda i vissa fall. Vi föreslår en ändring av stack hårdvara där utförandet av två olika vägar kan interleaved. Även om detta är en grundläggande förändring av stackkonceptet, visar vi hur dual path utförande kan genomföras med endast blygsamma förändringar av nuvarande hårdvara och att parallellism ökas utan att offra optimal (strukturerad) kontroll-flöde återvändsgränd. Vi gör en detaljerad utvärdering av en uppsättning riktmärken med olika kontrollflöde och visar att den dubbelriktade stackarkitekturen är mycket mer robust jämfört med tidigare tillvägagångssätt för att öka vägparallalismen. Dual-path utförande antingen matchar prestandan för baslinje en-path stack arkitektur eller överträffar en-path utförande med 14,9 % i genomsnitt och med över 30 % i vissa fall.
Rhu m.fl. REF föreslog en dubbelriktad stack för att hålla de två olika vägarna i en gren parallellt.
6,892,687
The dual-path execution model for efficient GPU control flow
{'venue': '2013 IEEE 19th International Symposium on High Performance Computer Architecture (HPCA)', 'journal': '2013 IEEE 19th International Symposium on High Performance Computer Architecture (HPCA)', 'mag_field_of_study': ['Computer Science']}
83,170
Abstract-Recently har det skett en ökande utbyggnad av innehållsdistributionsnätverk (CDNs) som erbjuder webbhotelltjänster till leverantörer av webbinnehåll. CDNs distribuerar en uppsättning servrar som distribueras över Internet och kopierar leverantörsinnehåll över dessa servrar för bättre prestanda och tillgänglighet än centraliserade leverantörsservrar. Befintligt arbete på CDNs har främst fokuserat på tekniker för att effektivt omdirigera användare förfrågningar till lämpliga CDN-servrar för att minska begäran latens och balans belastning. Dock har lite uppmärksamhet ägnats åt utvecklingen av placeringsstrategier för webbserver repliker för att ytterligare förbättra CDN prestanda. I detta papper undersöker vi problemet med webbserver replika placering i detalj. Vi utvecklar flera placeringsalgoritmer som använder arbetsbelastningsinformation, t.ex. kundlatens och kravfrekvenser, för att fatta välgrundade placeringsbeslut. Vi utvärderar sedan placeringsalgoritmerna med hjälp av både syntetiska och verkliga nätverkstopologier, samt webbserverspår, och visar att placeringen av webbrepliker är avgörande för CDN prestanda. Vi tar också upp ett antal praktiska frågor när vi använder dessa algoritmer, såsom deras känslighet för ofullständig kunskap om klientens arbetsbelastning och nätverkstopologi, stabiliteten i dataunderlaget och metoder för att få indata.
Dataplacering liknar också några av de idéer som används i placeringen av webbserver replika REF.
6,176,605
On the placement of Web server replicas
{'venue': 'Proceedings IEEE INFOCOM 2001. Conference on Computer Communications. Twentieth Annual Joint Conference of the IEEE Computer and Communications Society (Cat. No.01CH37213)', 'journal': 'Proceedings IEEE INFOCOM 2001. Conference on Computer Communications. Twentieth Annual Joint Conference of the IEEE Computer and Communications Society (Cat. No.01CH37213)', 'mag_field_of_study': ['Computer Science']}
83,171
Människor känner lätt igen objektdelar och deras hierarkiska struktur genom att titta på hur de rör sig; de kan sedan förutsäga hur varje del rör sig i framtiden. I det här dokumentet föreslår vi en ny formulering som samtidigt lär sig en hierarkisk, lösryckt objektrepresentation och en dynamisk modell för objektdelar från omärkta videor. Vår modell Parts, Structure, and Dynamics (PSD) lär sig först att känna igen objektdelarna via en lagerbildsrepresentation; för det andra, förutsäga hierarkin via en strukturell deskriptor som komponerar lågnivåbegrepp till en hierarkisk struktur; och för det tredje, modellera systemdynamiken genom att förutsäga framtiden. Experiment på flera verkliga och syntetiska dataset visar att vår PSD-modell fungerar bra på alla tre uppgifter: segmentering av objektdelar, uppbyggnad av deras hierarkiska struktur, och fånga deras rörelsefördelningar.
Xu och al. REF föreslog en djup modell för att upptäcka objektdelar och tillhörande hierarkisk struktur och dynamisk modell från omärkta videor.
76,667,896
Unsupervised Discovery of Parts, Structure, and Dynamics
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,172
Vi lade fram en noll-kunskapsbaserad definition av integritet. Vår uppfattning är strikt starkare än begreppet differentiell integritet och är särskilt attraktiv när vi modellerar privatlivet i sociala nätverk. Vi visar vidare att det på ett meningsfullt sätt kan uppnås för uppgifter som datamedelvärden, bråktal, histogram och en mängd olika grafparametrar och egenskaper, såsom genomsnittlig grad och avstånd till konnektivitet. Våra resultat uppnås genom att etablera en koppling mellan noll-kunskap integritet och urval komplexitet, och genom att utnyttja de senaste sublinjära tid algoritmer.
Zero-kunskap integritet REF är en kryptografiskt påverkad integritet definition som är strikt starkare än differential integritet.
1,585,853
Towards Privacy for Social Networks: A Zero-Knowledge Based Definition of Privacy ∗
{'venue': 'TCC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,173
Uncovering tematiska strukturer av SNS och blogginlägg är en avgörande men utmanande uppgift, på grund av den allvarliga data gleshet som orsakas av den korta längden av texter och olika användning av ordförråd. Detta hindrar en effektiv slutsats i fråga om det traditionella LDA, eftersom det leder till frågor som grundar sig på att ord förekommer samtidigt på dokumentnivå. För att på ett kraftfullt sätt dra slutsatser om ämnen i sådana sammanhang föreslår vi en latent konceptämnesmodell (LCTM). Till skillnad från LDA avslöjar LCTM ämnen via samtidig förekomst av latenta begrepp, som vi introducerar som latenta variabler för att fånga begreppsmässig likhet av ord. Mer specifikt, LCTM modellerar varje ämne som en fördelning över latenta begrepp, där varje latent koncept är en lokaliserad Gaussian distribution över ordet inbäddning utrymme. Eftersom antalet unika begrepp i en corpus ofta är mycket mindre än antalet unika ord, är LCTM mindre mottaglig för data gleshet. Experiment på 20Newsgroups visar LCTM:s effektivitet när det gäller att hantera korta texter samt modellens förmåga att hantera utdragna dokument med en hög grad av OOV-ord.
Därför föreslog REF latent koncept ämnesmodell (LCTM), som modellerade ett ämne som en fördelning av begrepp, där varje koncept definierade en annan fördelning av ordvektorer.
15,778,456
A Latent Concept Topic Model for Robust Topic Inference Using Word Embeddings
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,174
Automatiserad testning av programvara syftar till att upptäcka fel genom att producera testingångar som täcker så mycket av applikationens källkod som möjligt. Applikationer för mobila enheter är vanligtvis händelsedrivna, vilket väcker utmaningen att automatiskt producera händelsesekvenser som resulterar i hög täckning. Vissa befintliga metoder använder slumpmässiga eller modellbaserade tester som till stor del behandlar applikationen som en svart låda. Andra metoder använder symbolisk exekvering, antingen från ingångspunkterna i applikationerna eller på specifika händelsesekvenser. En vanlig begränsning av de befintliga tillvägagångssätten är att de ofta inte når de delar av tillämpningskoden som kräver mer komplexa händelsesekvenser. Vi föreslår en tvåfasteknik för att automatiskt hitta händelsesekvenser som når en given mållinje i applikationskoden. Den första fasen utför konkolisk körning för att bygga sammanfattningar av de enskilda händelsehandhavarna av ansökan. Den andra fasen bygger händelsesekvenser bakåt från målet, med hjälp av sammanfattningarna tillsammans med en UI-modell av ansökan. Våra experiment på en samling av öppen källkod Android-applikationer visar att denna teknik kan framgångsrikt producera händelsesekvenser som når utmanande mål.
Jensen m.fl. REF föreslår en testgenereringsmetod för att hitta händelsesekvenser som når en given mållinje i smartphone-appar.
11,741,816
Automated testing with targeted event sequence generation
{'venue': 'ISSTA 2013', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,175
Abstract-Simulators har spelat en avgörande roll i robotforskning som verktyg för snabba och effektiva tester av nya koncept, slategier och algoritmer. Hittills har de flesta simulatorer begränsats till 2D-världar, och få har mognat till den punkt där de är både mycket kapabla och lätt anpassningsbara. Gazebo är utformad för att fylla denna nisch genom att skapa en 3D dynamisk multi-robot miljö som kan återskapa de komplexa världar som kommer att mötas av nästa generation av mobila robotar. Dess öppen källkod stat~ls, finkornig coonlml, och hög trohet plats Gazebo i en unik position för att bli mer än bara B steg sten mellan ritbordet och verklig hårdvara: data visualisering, simulering av fjärrenvlronment, och wen omvänd konstruktion av blackbox @ems är alla möjliga tillämpningar. Gazebo The Player and Stage projekt har varit i utveckling sedan 2001, under vilken tid de har upplevt bred spridning användning i både akademi och industri. Spelaren är en nätverksansluten enhetsserver, och Stage är en simulator för stora populationer av mobila robotar i komplexa 2D-domäner. Ett naNra1-komplement för dessa två projekt är en hög trohet utomhus dynamik simulator; detta har tagit form i Gazebo projektet. Utvecklingen av Gazebo har drivits av den ökande användningen av robotfordon för utomhusbruk. Stage är ganska kapabelt att simulera samspelet mellan robotar i inomhusmiljöer, men behovet av en simulator som kan modellera utomhusmiljöer och ge realistisk sensor återkoppling har blivit uppenbart. Gazebo är därför utformad för att korrekt reproducera de dynamiska miljöer som en robot kan stöta på. Alla simulerade objekt har massa, hastighet, friktion och många andra attribut som gör att de kan bete sig realistiskt när de knuffas, dras, slås över eller transporteras. Dessa åtgärder kan användas som integrerade delar av ett experiment, t.ex. konstruktion eller födosök. Robotarna själva är dynamiska smcmres som består av stela kroppar som är sammankopplade via leder. Krafter, både angula och linjära, kan appliceras på ytor och leder för att generera rörelse och interaktion med en miljö. Själva världen beskrivs av landskap, extruderade byggnader och andra användarskapade objekt Nästan alla aspekter av simuleringen är kontrollerbara, från ljusförhållanden till friktionskoefficienter. Enligt de principer som fastställts av Player and Stage är Gazebo helt öppen källkod och fritt tillgänglig (en stor fördel jämfört med de flesta kommersiellt tillgängliga paket). Som ett resultat av detta har Gazebo en aktiv bas av bidragslämnare som snabbt utvecklar paketet för att möta deras ständigt föränderliga behov. Gazebo erbjuder en rik miljö för att snabbt utveckla och testa multirobotsystem på nya och intressanta sätt. Det är ett effektivt, skalbart och enkelt verktyg som också har potential att öppna robotforskningsområdet för ett bredare samhälle, vilket till exempel Gazebo övervägs för undervisning på grundnivå. Detta dokument beskriver den grundläggande arkitekturen i Gazebo-paketet, och illustrerar dess användning och extensibilitet genom ett antal fallstudier för användare. Vi ägnar också viss uppmärksamhet åt framtida riktlinjer för detta paket. Gazebo bas har utvecklats från grunden upp för att vara fullt kompatibel med Player-enheten server. Hårdvaran simulerad i Gazebo är utformad för att korrekt återspegla beteendet hos dess fysiska motsvarighet. Som ett resultat, ett klientprogram ser ett identiskt gränssnitt till en verklig och simulerad robot. Denna funktion gör det möjligt att sömlöst infoga Gazebo i utvecklingsprocessen för ett robotsystem. Även om det är kompatibelt med Player, Gazebo är inte tänkt som en ersättning för Stage simulator. Komplexiteten i att simulera stel kroppsdynamik i kombination med en 3D-miljö kan kraftigt beskatta även en högpresterande dator. Detta har effekten av att begränsa Gazebo till domänen några robotar, för närvarande i storleksordningen tio. Å andra sidan, Stage ger en robust och effektiv simulator för projekt som kräver stora robotpopulationer eller inte kräver den fulla kapaciteten hos Gazebo. Gazebo är långt ifrån det enda valet för en 3D-dynamiksimulator. Det är dock en av de få som försöker skapa realistiska världar för robotarna snarare än bara mänskliga användare. När mer avancerade sensorer utvecklas och införlivas i Gazebo kommer linjen mellan simulering och verklighet att fortsätta att suddas ut, men noggrannheten när det gäller robotsensorer och ställdon kommer att förbli ett övergripande mål. Några anmärkningsvärda system inkluderar COSIMIR [41, utvecklad vid Festo. Detta är ett kommersiellt paket som främst är utformat 2149 för industriell simulering av arbetsflöden med robotsystem, men är även tillämpligt på robotforskning. COSIMR har avancerade modelleringsmöjligheter och fysiska simuleringar som går långt utöver Gazebos kapacitet. Den innehåller många typer av gripdon, förmågan att programmera rörelser i icke-robotiska modeller såsom monteringslinjer, och har verktyg för analys av de simulerade systemen. Ett annat kommersiellt paket är Wehots (51 skapad av Cyberhotics. Wehots möjliggör skapandet av robotar med hjälp av ett bibliotek med fördefinierade ställdon och sensorer. När systemtester i simulatorn är klara kan en användare överföra sin kod till riktiga robotar. Webots huvudsakliga syfte är forskning och utveckling. Cyberbotics utvecklar också ett Player-gränssnitt för kompatibilitet med ett bredare utbud av enheter. Darwin2K 161 och OpenSim 171 representerar två robotsimulatorer med öppen källkod som utvecklats längs liknande linjer som Gazebo. Darwin 2K skapades av Chris Leger vid Camegie Mellon University som ett verktyg för sitt arbete med evolutionsrobotar. Denna simulator modellerar noggrant motor- och växelhuvuden i detalj samtidigt som den ger beräkningar av belastningen på strukturella kroppar. Darwin2K har ett starkt fokus på evolutionär syntes, design och optimering och är fortfarande en kapabel allmän simulator för dynamiska system. OpenSim, under utveckling av David lung, är en allmän öppen källkod robot simulator liknande i design ett syfte till Gazebo. Denna simulator använder sig av samma dud party-programpaket som Gazebo. och har några attraktiva funktioner för att bygga och debugging anikulerade ledkedjor. I.8 Förnyelse av bilaga I till förordning (EU) nr 1094/2010 och bilaga II till förordning (EU) nr 1094/2010, bilaga III till förordning (EU) nr 1094/2010, bilaga III till förordning (EU) nr 1094/2010, bilaga III till förordning (EU) nr 1094/2010, bilaga III till förordning (EU) nr 1094/2010 och bilaga III till den här förordningen. ARCHITECTURE Gazebos arkitektur har utvecklats genom ett par iterationer där vi lärde oss att på bästa sätt skapa ett enkelt verktyg för både utvecklare och slutanvändare. Vi insåg redan från början att ett viktigt inslag i Gazebo bör vara förmågan att enkelt skapa nya robotar, ställdon, sensorer och godtyckliga objekt. Som ett resultat, Gazebo upprätthåller en enkel API för tillägg av dessa objekt, som vi kallar modeller, och nödvändiga krokar för interaktion med klientprogram. Ett lager under detta API finns de thnd parti bibliotek som hanterar både fysik simulering och vlsualization. De särskilda bibliotek som användes valdes utifrån deras status med öppen källkod, aktiva användarbas och mognad. Denna arkitektur är grafiskt avbildad i figur 1. Världen representerar uppsättningen av alla modeller och miljöfaktorer såsom gravitation och belysning. Varje modell består av minst en kropp och ett antal leder och senson. Den lhird parti bibliotek gränssnitt med Gazebo på den lägsta nivån. Detta hindrar modeller från att bli beroende av specifika verktyg som kan förändras i framtiden. Slutligen, klientkommandon tas emot och data retumeras genom ett delat minne gränssnitt. En modell kan ha många gränssnitt för funktioner som exempelvis omfattar kontroll av leder och överföring av kamerabilder. Open Dynamics Engine [8], skapad av Russel Smith, är en allmänt använd fysikmotor i öppen källkodsgemenskapen. Den är utformad för att simulera dynamiken och kinematiken i samband med ledade stela kroppar. Denna motor innehåller många funktioner såsom många leder, kollisionsdetektering, massa och rotationsfunktioner, och många geometrier inklusive godtyckliga triangelmaskor (Figur 6 ). Gazebo använder dessa funktioner genom att tillhandahålla ett lager av abstraktion belägen mellan ODE och Gazebo modeller. Detta lager gör det enkelt att skapa både normala och abstrakta objekt som laserstrålar och markplan samtidigt som alla funktioner som ODE tillhandahåller. Med denna interna slutmodell -abstraktion, är det möjligt att ersätta den underliggande fysikmotorn, om ett bättre alternativ blir tillgängligt. En väl utformad simulator ger vanligtvis någon form av användargränssnitt, och Gazebo kräver en som är både sofistikerad och snabb. Hjärtat i Gazebo ligger i dess förmåga att simulera dynamik, och detta kräver betydande arbete för användarens dator. Ett långsamt och besvärligt användargränssnitt skulle bara minska simulatorns primära syfte. För att ta hänsyn till detta valdes OpenGL och GLUT (OpenGL Utility Toolkit) [9] som standardverktyg för visualisering. OpenGL är ett standardbibliotek för skapande av interaktiva 2D- och 3D-tillämpningar. Den är plattformsoberoende, mycket skalbar, stabil och ständigt utvecklande. Viktigare, många funktioner i OpenCL har varit
Gazebosimulatorn REF har använts i stor utsträckning inom robotforskning.
206,941,306
Design and use paradigms for Gazebo, an open-source multi-robot simulator
{'venue': '2004 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (IEEE Cat. No.04CH37566)', 'journal': '2004 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (IEEE Cat. No.04CH37566)', 'mag_field_of_study': ['Computer Science']}
83,176
Topiska modeller, såsom latent Dirichlet allocation (LDA), kan vara användbara verktyg för statistisk analys av dokumentsamlingar och andra diskreta data. LDA-modellen förutsätter att orden i varje dokument härrör från en blandning av ämnen, som var och en är en fördelning över ordförrådet. En begränsning av LDA är oförmågan att modellera ämnessamband även om exempelvis ett dokument om genetik mer sannolikt också handlar om sjukdom än röntgenastronomi. Denna begränsning beror på användningen av Dirichlet-distributionen för att modellera variabiliteten mellan ämnesandelarna. I denna uppsats utvecklar vi den korrelerade ämnesmodellen (CTM), där ämnes proportionerna uppvisar korrelation via den logistiska normalfördelningen [J. Roy. Statistikant. SOC. - Sergeant, vad gör du här? B 44 (1982) 139-177]. Vi härleder en snabb variationell inferensalgoritm för ungefärlig bakre inferens i denna modell, vilket kompliceras av det faktum att det logistiska normala inte konjugerar till det multinomiska. Vi tillämpar CTM på de artiklar från Science som publicerades 1990-1999, en datauppsättning som omfattar 57M-ord. Den CTM ger en bättre passform av data än LDA, och vi visar dess användning som ett undersökande verktyg för stora dokumentsamlingar.
Korrelerad Topic Model REF ersätter Dirichlet tidigare med logistisk Normal innan för ämnesfördelning i varje dokument för att fånga korrelationen mellan ämnena.
8,872,108
A correlated topic model of Science
{'venue': 'Annals of Applied Statistics 2007, Vol. 1, No. 1, 17-35', 'journal': None, 'mag_field_of_study': ['Mathematics']}
83,177
En förbättrad algoritm läggs fram för att förbättra den dåliga lokaliseringen av DV-Hop-algoritmen, som är en av de avståndsfria algoritmerna i trådlösa sensornätverk. För det första sätter vi upp några ankarnoder vid gränslandet för övervakning av regioner. För det andra ändras det genomsnittliga one-hop-avståndet mellan ankarnoder, och det genomsnittliga one-hop-avstånd som används av varje okänd nod för att uppskatta dess placering ändras genom viktning av de mottagna genomsnittliga one-hop-avstånden från ankarnoder. Slutligen använder vi partikel svärmen optimering för att korrigera den position som uppskattas av 2D hyperbolic localization algoritm, vilket gör resultatet närmare den faktiska positionen. Simuleringsresultaten visar att den föreslagna algoritmen har bättre lokaliseringsprestanda i lokaliseringsprecisionen och stabiliteten än den grundläggande DV-Hop-algoritmen och några befintliga förbättrade algoritmer.
REF Förbättringen av lokaliseringen av prestanda har gjorts genom att ändra och vikta det genomsnittliga humleavståndet mellan ankarnoder.
11,604,163
Improved DV-Hop Node Localization Algorithm in Wireless Sensor Networks
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
83,178
Framgången med Semantic Web beror på tillgängligheten av ontologier samt på spridningen av webbsidor kommenterade med metadata som överensstämmer med dessa ontologier. Därför är en avgörande fråga var man kan skaffa sig dessa metadata. I detta dokument föreslår vi PANKOW (Pattern-based Annotation through Knowledge on the Web), en metod som använder en oövervakad, mönsterbaserad metod för att kategorisera fall med avseende på en ontologi. Tillvägagångssättet utvärderas mot de manuella kommentarerna från två människor. Metoden genomförs i OntoMat, ett anteckningsverktyg för Semantic Web och visar mycket lovande resultat.
PANKOW REF föreslog en metod som använder en oövervakad, mönsterbaserad metod för att kategorisera fall med avseende på en ontologi.
6,755,749
Towards the self-annotating web
{'venue': "WWW '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,179
De senaste systemen för att upptäcka föremål bygger på två kritiska steg: 1) en uppsättning objektförslag förutses så effektivt som möjligt, och 2) denna uppsättning kandidatförslag skickas sedan vidare till en objektklassare. Sådana metoder har visat att de kan vara snabba, samtidigt som man uppnår den senaste tekniken i detektionsprestanda. I detta dokument föreslår vi ett nytt sätt att ta fram objektförslag, genom att införa ett tillvägagångssätt som bygger på ett diskriminerande konvolutionsnätverk. Vår modell tränas tillsammans med två mål: med en bildlapp, den första delen av systemet utdata en klass-agnostisk segmentering mask, medan den andra delen av systemet utdata sannolikheten för att lappen centreras på ett fullt objekt. Vid provningstidpunkten tillämpas modellen effektivt på hela testbilden och genererar en uppsättning segmenteringsmasker, där var och en tilldelas en motsvarande poäng för objektsannolikhet. Vi visar att vår modell ger betydande förbättringar jämfört med toppmoderna objektförslagsalgoritmer. I synnerhet, jämfört med tidigare tillvägagångssätt, får vår modell betydligt högre objektåterkallelse med hjälp av färre förslag. Vi visar också att vår modell kan generalisera till osynliga kategorier som den inte har sett under träningen. Till skillnad från alla tidigare metoder för att generera objektmasker, förlitar vi oss inte på kanter, superpixlar, eller någon annan form av låg nivå segmentering.
DeepMask REF föreslår ett nätverk för att klassificera om plåstret innehåller ett objekt och sedan genererar en mask.
140,529
Learning to Segment Object Candidates
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,180
Många namngivna enheter innehåller andra namngivna enheter inuti dem. Trots detta har området för namngivna enhetserkännande nästan helt ignorerat det inhägnade namngivna enhetserkännandet, men på grund av tekniska snarare än ideologiska skäl. I detta dokument presenterar vi en ny teknik för att känna igen inhägnade namngivna enheter, genom att använda en diskriminerande valmanstolk. För att träna modellen omvandlar vi varje mening till ett träd, med komponenter för varje namngiven enhet (och ingen annan syntaktisk struktur). Vi presenterar resultat på både tidningar och biomedicinska corpora som innehåller inhägnade namngivna enheter. I tre av fyra experimentgrupper överträffar vår modell en standard semi-CRF på de mer traditionella toppnivåenheterna. Samtidigt förbättrar vi den totala F-poängen med upp till 30 procent jämfört med den plana modellen, som inte kan återställa några bon.
I REF föreslogs en CRF-baserad valmanstolk för inhägnade namngivna enheter så att varje namngiven enhet är en beståndsdel i parsträdet.
10,573,012
Nested Named Entity Recognition
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,181
Vi introducerar den "exponentiella linjära enheten" (ELU) som påskyndar inlärningen i djupa neurala nätverk och leder till högre klassifikationsnoggrannheter. I likhet med rektifierade linjära enheter (ReLU), läckande ReLU (LReLU) och parametriserade ReLU (PReLU) lindrar ELU problemet med försvinnande lutning via identiteten för positiva värden. De europeiska intermodala lastenheterna har dock förbättrat inlärningsegenskaperna jämfört med enheterna med andra aktiveringsfunktioner. I motsats till ReLU har de europeiska intermodala lastenheterna negativa värden som gör det möjligt för dem att driva genomsnittliga enhetsaktiveringar närmare noll som batch normalisering men med lägre beräknings komplexitet. Genomsnittliga förskjutningar mot noll hastighet upp lärande genom att föra den normala lutningen närmare enheten naturlig lutning på grund av en minskad snedförskjutning effekt. Även om LReLU:er och PReLU:er har negativa värden, garanterar de inte ett buller-robust deaktiveringstillstånd. De europeiska intermodala lastenheterna mättar till ett negativt värde med mindre inflöden och minskar därmed den framåtfördelade variationen och informationen. Därför kodar de europeiska intermodala lastenheterna graden av närvaro av särskilda fenomen i inmatningen, samtidigt som de inte kvantitativt modellerar graden av deras frånvaro. I experiment leder de europeiska intermodala lastenheterna inte bara till snabbare lärande, utan också till betydligt bättre generaliseringsprestanda än de lokala lastenheterna och de lokala lastenheterna på nätverk med mer än 5 lager. På CIFAR-100 ELUs nätverk betydligt överträffar ReLU nätverk med batch normalisering medan batch normalisering inte förbättrar ELU nätverk. Elu-nät är bland de 10 topprapporterade resultaten CIFAR-10 och ger det bäst publicerade resultatet på CIFAR-100, utan att använda sig av multi-view-utvärdering eller modellgenomsnitt. På ImageNet påskyndar ELU-nätverken inlärningen betydligt jämfört med ett ReLU-nätverk med samma arkitektur, vilket ger mindre än 10 % klassificeringsfel för en enda gröda, ett enda modellnätverk.
På senare tid har Exponential Linear Units (ELUs) REF visat betydande förbättringar jämfört med ReLUs.
5,273,326
Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs)
{'venue': 'ICLR 2016', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,182
Discourse relations binder mindre språkliga enheter till sammanhängande texter. Att automatiskt identifiera samtalsrelationer är svårt, eftersom det kräver förståelse för semantiken i de sammanlänkade argumenten. En mer subtil utmaning är att det inte räcker att representera innebörden av varje argument i en diskursen relation, eftersom förhållandet kan bero på kopplingar mellan lägre nivåer komponenter, såsom enhet nämner. Vår lösning beräknar fördelade betydelserepresentationer för varje diskursen argument genom sammansättning upp syntaktiska parse träd. Vi utför också ett nedåtkompositionspass för att fånga betydelsen av coreferent entity nämner. Implicit diskursen relationer förutsägs sedan från dessa två representationer, få betydande förbättringar på Penn Discourse Treebank.
REF beräknar fördelade betydelserepresentationer för varje diskursen argument genom sammansättning upp syntaktiska parse träd.
15,065,468
One Vector is Not Enough: Entity-Augmented Distributed Semantics for Discourse Relations
{'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
83,183
Abstract-Point uppsättning registrering är en nyckelkomponent i många datorseende uppgifter. Målet med punktuppsättningsregistrering är att tilldela korrespondenser mellan två uppsättningar punkter och att återställa den omvandling som kartlägger den ena punkten inställd på den andra. Flera faktorer, inklusive en okänd icke-rigid rumslig omvandling, stor dimensionalitet av punktuppsättning, buller och avvikelser, gör punkten ange registrering ett utmanande problem. Vi introducerar en probabilistisk metod, kallad Coherent Point Drift (CPD) algoritm, för både stel och icke-rigid punktuppsättning registrering. Vi anser att anpassningen av två punktuppsättningar är ett problem med att beräkna sannolikhetstätheten. Vi passar GMM centroids (representerar den första punkten som) till data (den andra punkten som) genom att maximera sannolikheten. Vi tvingar GMM-centroiderna att röra sig sammanhängande som en grupp för att bevara den topologiska strukturen i punktuppsättningarna. I det stela fallet inför vi sammanhållningsbegränsningen genom omparametrisering av GMM-centroid platser med stela parametrar och härleda en sluten form lösning av maximeringssteget av EM-algoritmen i godtyckliga dimensioner. I det icke-rigida fallet tvingar vi på sammanhållningsbegränsningen genom att reglera förskjutningsfältet och använda variationskalkylen för att härleda den optimala omvandlingen. Vi introducerar även en snabbalgoritm som minskar metodens beräkningskomplexitet till linjär. Vi testar CPD algoritmen för både stela och icke-rigid omvandlingar i närvaro av buller, avvikelser och saknade punkter, där CPD visar exakta resultat och överträffar aktuella state-of-the-art metoder.
Med tanke på monteringen av två punkter moln som en sannolikhet densitet uppskattning problem, Myronenko et al. I REF föreslogs en algoritm för koherent punktdrift som uppmuntrar förskjutningsvektorer att peka in i liknande riktningar för att förbättra enhetligheten i omvandlingen.
10,809,031
Point-Set Registration: Coherent Point Drift
{'venue': 'IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 32, issue 12, pp. 2262-2275', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,184
Sammanfattning av denna webbsida: Med den ökande efterfrågan på användning av smarta och nätverksanslutna kameror i intelligenta och omgivande teknikmiljöer är utvecklingen av algoritmer för sådana resursdistribuerade nätverk av stort intresse. Det är svårt att anpassa dessa metoder för användning i smarta kameranätverk på grund av den enorma mängden bearbetning och kommunikation av data i verkliga tillämpningar. I detta dokument föreslår vi en distribuerad verksamhetsklassificeringsram där vi utgår från att flera kamerasensorer observerar scenen. Varje kamera bearbetar sina egna observationer, och samtidigt som de kommunicerar med andra kameror, kommer de överens om aktivitetsklassen. Vår metod är baserad på att återvinna en låg-rankad matris över konsensus för att utföra en distribuerad matris komplettering via konvex optimering. Sedan tillämpas den på problemet med klassificeringen av mänsklig verksamhet. Vi testar vår strategi på IXMAS- och MuHAVi-dataset för att visa metodens prestanda och genomförbarhet.
Mosabbeb m.fl. REF föreslog ett distribuerat system där varje kamera behandlar sina egna observationer, och samtidigt som de kommunicerar med andra kameror, kommer de överens om aktivitetsklassen.
1,961,064
Multi-View Human Activity Recognition in Distributed Camera Sensor Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,185
Vi anser att AC elektriska system där varje elektrisk enhet har ett strömbehov uttryckt som ett komplext antal, och det finns en gräns för omfattningen av den totala strömförsörjningen. Motiverade av detta scenario, introducerar vi den komplexa-efterfrågan knapsack problem (C-KP), en ny variation av den traditionella knapsack problem, där varje post är associerad med en efterfrågan som ett komplext tal, snarare än ett reellt tal som ofta tolkas som vikt eller storlek på objektet. Samtidigt hålla samma mål som att maximera summan av värden för de valda objekten, sätter vi kapacitetsgränsen på storleken på summan av nöjda krav. För C-KP bevisar vi dess oåtkomlighet genom FPTAS (om inte P = NP), samt presenterar en (1/2 − )-tillnärmningsalgoritm. Dessutom undersöker vi den själviska multiagentmiljö där varje agent är ansvarig för en vara, och en agent kan felrapportera efterfrågan och värdet av sin vara för sitt eget intresse. Vi visar ett enkelt sätt att anpassa vår approximationsalgoritm till monoton, vilket är tillräckligt för förekomsten av incitamentskompatibla betalningar så att ingen agent har ett incitament att felrapportera. Våra resultat ger en inblick i utformningen av multiagentsystem för smarta nät.
REF erhöll en approximation på 1 2 för det fall där 0 ≤. ≤..................................................................................................
15,287,938
Complex-Demand Knapsack Problems and Incentives in AC Power Systems
{'venue': None, 'journal': 'arXiv: Data Structures and Algorithms', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,186
Den rika uppsättningen interaktioner mellan individer i samhället [1] [2] [3] [4] [5] [6] [6] [7] resulterar i komplex samhällsstruktur, fånga högt anslutna kretsar av vänner, familjer eller yrkesgrupper i ett socialt nätverk 3, [7] [8] [9] [10]. Tack vare frekventa förändringar i individers aktivitets- och kommunikationsmönster är det tillhörande sociala nätverket och kommunikationsnätet föremål för ständig utveckling 7, [11] [12] [13] [14] [15] [16]. Vår kunskap om de mekanismer som styr den underliggande samhällsdynamiken är begränsad, men är nödvändig för en djupare förståelse av samhällets utveckling och självoptimering som helhet [17] [18] [19] [20] [21] [22]. Vi har utvecklat en algoritm baserad på clique percolation 23, 24 som gör det möjligt för oss att undersöka tidsberoendet av överlappande samhällen i stor skala, och därmed avslöja grundläggande relationer som kännetecknar samhällsutvecklingen. Vårt fokus ligger på nätverk som fångar upp samarbetet mellan forskare och samtalen mellan mobiltelefonanvändare. Vi finner att stora grupper består längre om de är i stånd att dynamiskt förändra sitt medlemskap, vilket tyder på att en förmåga att ändra gruppens sammansättning resulterar i bättre anpassningsförmåga. Små gruppers beteende visar den motsatta tendensen - villkoret för stabilitet är att deras sammansättning förblir oförändrad. Vi visar också att kunskap om medlemmarnas tidsengagemang i ett visst samhälle kan användas för att uppskatta samhällets livstid. Dessa resultat ger insikt i de grundläggande skillnaderna mellan små gruppers dynamik och stora institutioner. De datamängder vi anser är (1) den månatliga listan över artiklar i Cornell University Library e-print kondenserade materia (cond-mat) arkiv som sträcker sig 142 månader, med över 30 000 författare 25, och (2) rekordet av telefonsamtal mellan kunderna i ett mobiltelefonföretag som sträcker sig 52 veckor (ackumuleras över två veckor långa perioder), och innehåller kommunikationsmönster för över 4 miljoner användare. Båda typerna av samarbetsevenemang (en ny artikel eller ett telefonsamtal) dokumenterar förekomsten av social interaktion mellan de inblandade individerna (nodes), och kan representeras som (tidsberoende) länkar. Extrahering av de föränderliga länkvikterna från de primära uppgifterna beskrivs i kompletterande information. På bild. 1a, b vi visar den lokala strukturen vid en given tidpunkt steg i de två nätverken i närheten av en slumpmässigt vald individ (markerad av en röd ram). De samhällen (sociala grupper som representeras av tätare sammankopplade delar inom ett nätverk av sociala länkar) är färgkodade, så att svarta noder/kanter inte tillhör någon gemenskap, och de som samtidigt tillhör två eller flera samhällen visas i rött. De två nätverken har ganska olika lokal struktur: samverkansnätverket av forskare framträder som en en-stegs projektion av tvåpartsgrafen mellan författare och papper, så den är ganska tät och överlappningen mellan samhällen är mycket betydande. I telefonsamtalsnätet är däremot samhällena mindre sammankopplade och är ofta åtskilda av en eller flera knutpunkter/kanter inom gemenskapen. Medan telefonskivan fångar kommunikationen mellan två personer, tilldelas alla individer som bidrar till ett papper en helt ansluten klick. Som ett resultat av detta domineras telefondata av enskilda länkar, medan samförfattardata har många täta, starkt anslutna stadsdelar. Dessutom, länkarna i telefonnätet motsvarar omedelbar kommunikation händelser, fånga en relation som det händer. Däremot beaktade man uppgifterna från medförfattaren. a, Samförfattarnätverket. Figuren visar den lokala samhällsstrukturen vid en given tidpunkt steg i närheten av en slumpmässigt vald nod. B, Som en men för telefon-samtal nätverket. c, De fyllda svarta symbolerna motsvarar den genomsnittliga storleken på den största undergruppen av medlemmar med samma zip-kod, AEn verkliga ae, i telefonsamtalsgemenskaperna dividerat med samma mängd som finns i slumpmässiga uppsättningar, AEn rand ae, som en funktion av gemenskapens storlek, s. På samma sätt visar de öppna symbolerna den genomsnittliga storleken på den största undergruppen av samhällsmedlemmar med en ålder som faller i ett treårigt tidsfönster, dividerat med samma mängd i slumpmässiga uppsättningar. Felraderna i båda fallen motsvarar AEn real ae/ (AEn rand ae 1 s rand ) och AEn real ae/(AEn rand ae 2 s rand ), där s rand är standardavvikelsen när det gäller slumpmässiga uppsättningar. d, AEn verkliga ae/s som en funktion av s, för både zip-koden (fyllda svarta symboler) och ålder (öppna symboler). e, Möjliga händelser i samhällsutvecklingen. f, Identifiering av evolverande samhällen. Länkarna vid t (blå) och länkarna vid t 1 1 (gul) slås samman till en gemensam graf (grön). Varje CPM gemenskap vid t eller t 1 1 är en del av en CPM gemenskap i den sammanfogade grafen, så dessa kan användas för att matcha de två uppsättningar av samhällen.
Slutligen, det mest närbesläktade arbetet med vårt är av Palla et al. REF, där författarna undersöker tidsberoendet av överlappande samhällen i stor skala, avslöjar grundläggande relationer som kännetecknar samhällsutvecklingen.
4,420,074
Quantifying social group evolution
{'venue': 'Nature', 'journal': 'Nature', 'mag_field_of_study': ['Medicine', 'Biology', 'Mathematics', 'Physics']}
83,187
Vi presenterar en effektiv immuniseringsstrategi för datornät och befolkningar med breda och i synnerhet skalfria gradfördelningar. Den föreslagna strategin, bekant immunisering, kräver immunisering av slumpmässiga bekantskaper av slumpmässiga noder (individer). Strategin kräver ingen kunskap om nodgraderna eller någon annan global kunskap, liksom riktade immuniseringsstrategier. Vi studerar analytiskt den kritiska tröskeln för fullständig immunisering. Vi studerar också strategin med avseende på den epidemiologiska modellen SIR (susceptible-infected-removed). Vi visar att immuniseringströskeln sänks dramatiskt med den föreslagna strategin, för alla undersökta fall. PAC-nummer: 02.50. Cw, 02.10.Ox, 89.20.Hh, 64.60.Ak Det är väl etablerat att slumpmässig immunisering kräver immunisering en mycket stor del av ett datornät, eller befolkning, för att arrestera epidemier som sprider sig vid kontakt mellan infekterade noder (eller individer) [1, 2, 3, 4, 5, 6, 7]. Många sjukdomar kräver 80%-100% immunisering (till exempel, Measles kräver 95% av befolkningen att immuniseras [1] ). Detsamma är korrekt för Internet, där stoppa datorvirus kräver nästan 100% immunisering [5, 6, 7]. Å andra sidan kräver riktad immunisering av de mest uppkopplade individerna [1, 5, 8, 9, 10, 11], medan effektiv, global information om nätverket i fråga, vilket gör det opraktiskt i många fall. Här utvecklar vi en matematisk modell och föreslår en effektiv strategi, baserad på immunisering av en liten bråkdel av slumpmässiga bekantskaper av slumpmässigt utvalda noder. På detta sätt immuniseras de mest uppkopplade noderna, och processen förhindrar epidemier med en liten ändlig immuniseringströskel och utan att kräva specifik kunskap om nätverket. Sociala nätverk är kända för att ha en bred spridning av antalet länkar (kontakter), k, som härrör från en nod (en individ) [12, 13, 14]. Exempel är nätet av sexuella kontakter [15], film-actor nätverk, vetenskapliga citeringar och samarbetsnätverk [16, 17] etc. Datanät, både fysiska (t.ex. Internet [18] ) och logiska (t.ex. WWW [19], och e-post [20] och betrodda nät [21] ) är också kända för att ha omfattande, skalfria distributioner. Studier av perkolering på breda nätverk visar att en stor del f c av noderna måste avlägsnas (immuniseras) innan nätets integritet äventyras. Detta gäller särskilt för skalfria nät, P (k) = ck −λ (k ≥ m), där 2 < λ < 3 - fallet med de flesta kända nätverk [12, 13, 14] -där perkoleringströskeln f c → 1, och nätverket förblir ansluten (kontagiös) även efter avlägsnande av de flesta av sina noder [6]. Med andra ord, med en slumpmässig immunisering strategi nästan alla noder behöver immuniseras
Cohen m.fl. REF föreslog en matematisk modell och en immuniseringspolitik baserad på en liten bråkdel av slumpmässiga bekantskaper och studerade analytiskt den kritiska tröskeln för fullständig immunisering.
919,625
Efficient Immunization Strategies for Computer Networks and Populations
{'venue': 'Phys. Rev. Lett. 91, 247901 (2003)', 'journal': None, 'mag_field_of_study': ['Physics', 'Biology', 'Medicine']}
83,188
Denna studie undersöker förhållandet mellan användningen av Facebook, en populär webbplats på nätet sociala nätverk, och bildandet och underhållet av socialt kapital. Förutom att bedöma bindning och överbrygga socialt kapital, utforskar vi en dimension av socialt kapital som bedömer ens förmåga att hålla kontakten med medlemmar i en tidigare bebodd gemenskap, som vi kallar bevarat socialt kapital. Regressionsanalyser gjorda på resultat från en undersökning av grundstuderande (N = 286) tyder på ett starkt samband mellan användningen av Facebook och de tre typerna av socialt kapital, med den starkaste relationen att överbrygga socialt kapital. Dessutom befanns Facebook-användning interagera med åtgärder för psykiskt välbefinnande, vilket tyder på att det kan ge större fördelar för användare som upplever låg självkänsla och låg livstillfredsställelse.
För sociala nätverk online, Ellison et al. REF definierade vänner som socialt kapital i termer av en individs förmåga att hålla kontakten med medlemmar i ett tidigare bebott samhälle.
11,940,919
The Benefits of Facebook “Friends:” Social Capital and College Students’ Use of Online Social Network Sites
{'venue': 'J. Computer-Mediated Communication', 'journal': 'J. Computer-Mediated Communication', 'mag_field_of_study': ['Psychology', 'Computer Science']}
83,189
I detta dokument föreslår vi en metod för att få Binary Decision Diagram (BDD) och Boolean Satisfiability (SAT) Solvers att samarbeta. Den underliggande idén är enkel: Vi startar en verifieringsuppgift med BDDs, vi fortsätter med dem så länge problemet kvarstår av hanterbar storlek, sedan byter vi till SAT, utan att förlora det arbete som gjorts på BDD domänen. Vi föreslår en utvidgning som ett försök att få en del av fördelarna med statlig manipulation från BDD till SAT-baserad verifiering. Vi först, "förstora" inledande och mål state uppsättningar av ett givet verifieringsproblem genom prisvärda BDD manipulationer. Detta steg förs vidare med några få bredd-första steg av traversal, eller med vad vi kallar högdensitet dynamisk abstraktion, d.v.s. en ny teknik för att samla under-ungefärliga nåbara tillståndsuppsättningar. Sedan utför vi SAT-baserad verifiering med de nyligen beräknade "förstorade" uppsättningarna. Vi testar experimentellt vår metodik i en industriell miljö, Intel BOolean vorifier BOVE. Preliminära resultat för standardriktmärken (Isca'89, ISCAS'89-tillägget och VIS-sviter) och industriella referensvärden (IBM Formal Verification Benchmark Library) tillhandahålls. Resultat visar intressanta förbättringar över state-of-the-art tekniker: Vi kan minska CPU-tid upp till en 5x faktor, när utföra verifiering med samma djup, eller vi kan öka verifiering djup upp till 30%, när utföra verifiering inom samma tidsfrist.
Bischoff m.fl. REF föreslår en metod för att använda BDD och SAT-lösare för verifiering av program i en dubbelriktad form som liknar vår naturalgoritm.
1,027,567
Exploiting Target Enlargement and Dynamic Abstraction within Mixed BDD and SAT Invariant Checking
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,190
Cloud computing håller snabbt på att bli en plattform för många webbtjänster. Virtualisering är den viktigaste underliggande tekniken som gör det möjligt för molnleverantörer att ta emot tjänster för ett stort antal kunder. Tyvärr är virtualiseringsprogramvaran stor, komplex och har en betydande attackyta. Som sådan, Det är benägna att buggar och sårbarheter som en skadlig virtuell maskin (VM) kan utnyttja för att attackera eller hindra andra virtuella maskiner - en stor oro för organisationer som vill flytta "till molnet." I motsats till tidigare arbete med härdning eller minimering av virtualiseringsprogramvaran eliminerar vi hypervisorattackytan genom att låta gäst-VM:erna köra inåt på den underliggande hårdvaran samtidigt som vi bibehåller möjligheten att köra flera virtuella maskiner samtidigt. Vårt NoHype system förkroppsligar fyra viktiga idéer: (i) pre-allokering av processorkärnor och minnesresurser, (ii) användning av virtualiserade I/O-enheter, (iii) mindre ändringar av gästen OS för att utföra alla system upptäckt under start, och (iv) undvika indirektion genom att ta gäst virtuell maskin i mer direkt kontakt med den underliggande hårdvaran. Därför behövs ingen hypervisor för att fördela resurser dynamiskt, emulera I/O-enheter, stödja systemupptäckt efter start, eller kartavbrott och andra identifierare. NoHype kapitaliserar på den unika användningsmodellen i cloud computing, där kunderna specificerar resurskrav i förväg och leverantörer erbjuder en svit av gäst OS-kärnor. Vårt system stöder flera hyresgäster och funktioner som ofta finns i värdmolnsinfrastrukturer. Vår prototyp använder Xen 4.0 för att förbereda miljön för gäst-VM, och en något modifierad version av Linux 2.6 för gäst-OS. Vår utvärdering med både SPEC och Apache-riktmärken visar en ca 1% prestandavinst när du kör program på NoHype jämfört med att köra dem på toppen av Xen 4.0. Vår säkerhetsanalys visar att även om det finns några mindre begränsningar med nuvarande råvaruhårdvara, NoHype är ett betydande framsteg i säkerheten i molndata.
I REF utforskade författarna attackytan hos moderna hypervisorer för att utvärdera säkerheten i molnbaserade applikationer.
15,869,079
Eliminating the hypervisor attack surface for a more secure cloud
{'venue': "CCS '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,191
Feature banor har visat sig vara effektiva för att representera videor. Vanligtvis extraheras de med hjälp av KLT tracker eller matchande SIFT deskriptorer mellan ramar. Kvaliteten och mängden av dessa banor är dock ofta inte tillräcklig. Inspirerad av de senaste framgångarna med tät provtagning i bildklassificering föreslår vi ett tillvägagångssätt för att beskriva videor med täta banor. Vi provar täta punkter från varje ram och spårar dem baserat på förskjutningsinformation från ett tätt optiskt flöde fält. Med tanke på en toppmodern optisk flödesalgoritm är våra banor robusta för snabba oregelbundna rörelser och skjutgränser. Dessutom täcker täta banor rörelseinformationen väl i videor. Vi undersöker också hur man utformar deskriptorer för att koda kursinformationen. Vi introducerar en ny deskriptor baserad på rörelsegränshistogram, som är robust för kamerarörelse. Denna deskriptor överträffar konsekvent andra toppmoderna deskriptorer, särskilt i okontrollerade realistiska videor. Vi utvärderar vår videobeskrivning i samband med åtgärdsklassificering med en bag-of-features strategi. Experimentella resultat visar en betydande förbättring jämfört med den senaste tekniken på fyra datauppsättningar med varierande svårighetsgrad, dvs. KTH, YouTube, Hollywood2 och UCF sporter.
Wang m.fl. REF provade täta punkter från varje ram och spårade dem baserat på deplacementinformationen från ett tätt optiskt flödesfält.
13,537,104
Action recognition by dense trajectories
{'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']}
83,192
Vi anser att neurala nätverk med ett enda dolt lager och icke-minska homogen aktiveringsfunktioner som de rektifierade linjära enheterna. Genom att låta antalet dolda enheter växa fritt och med hjälp av klassiska icke-Euklidiska legaliseringsverktyg på utgångsvikterna, ger vi en detaljerad teoretisk analys av deras generalisering prestanda, med en studie av både approximation och skattningsfel. Vi visar särskilt att de är anpassningsbara till okända underliggande linjära strukturer, såsom beroendet av projiceringen av indatavariablerna på en lågdimensionell subrymd. Dessutom, när vi använder sparty-inducerande normer på ingångsvikterna, visar vi att högdimensionella icke-linjära variabla val kan uppnås, utan några starka antaganden om data och med ett totalt antal variabler potentiellt exponentiellt i antalet observationer. Dessutom ger vi en enkel geometrisk tolkning av det icke-konvexa problemet med tillägg av en ny enhet, vilket är kärnan i potentiellt svåra beräkningselement inom ramen för lärande från kontinuerligt många basfunktioner. Vi tillhandahåller enkla villkor för konvexa avkopplingar för att uppnå samma generalisering felgränser, även när approximationer med konstant faktor inte kan hittas (t.ex., eftersom det är NP-hård som för noll-homogen aktiveringsfunktion). Vi kunde inte hitta tillräckligt starka konvexa avkopplingar och lämna öppen existensen eller icke-existensen av polynom-tidsalgoritmer.
I själva verket, att lägga till även en enda neuron till modellen kräver lösningen av ett icke-konvext problem där ingen effektiv algoritm är känd REF.
1,474,026
Breaking the Curse of Dimensionality with Convex Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,193
Dataset augmentation, praxis att tillämpa ett brett spektrum av domänspecifika transformationer för att syntetiskt utöka en utbildning uppsättning, är ett standardverktyg för övervakad lärande. Även effektivt i uppgifter som visuell igenkänning, måste uppsättningen av transformationer noggrant utformas, genomföras och testas för varje nytt område, vilket begränsar dess återanvändning och allmängiltighet. I detta dokument antar vi en enklare, domänagnostisk strategi för datauppsättningsförstärkning. Vi börjar med befintliga datapunkter och tillämpar enkla transformationer som att lägga till buller, interpolera eller extrapolera mellan dem. Vår huvudsakliga insikt är att utföra omvandlingen inte i inmatningsutrymme, utan i ett inlärt funktionsutrymme. Ett förnyat intresse för oövervakad representationsinlärning gör denna teknik aktuell och mer effektiv. Det är ett enkelt förslag, men hittills ett som inte har testats empiriskt. Vi arbetar i rummet för kontextvektorer som genereras av sekvens-till-sekvens modeller, vi visar en teknik som är effektiv för både statiska och sekventiella data.
DeVries och Taylor använde enkla transformationer i den inlärda funktionen utrymme för att öka data REF.
15,530,352
Dataset Augmentation in Feature Space
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,194
Effektiv visualisering av vektorfält bygger på förmågan att kontrollera storleken och densiteten av den underliggande kartläggningen till visuella signaler som används för att representera fältet. I detta papper introducerar vi användningen av en reaktionsdiffusion modell, som redan är känd för sin förmåga att bilda oregelbundna spatio-temporala patters, för att kontrollera storlek, densitet, och placering av vektorfält representation. Vi visar att det är möjligt att koda vektorfältsinformation (orientering och magnitud) i parametrarna som styr en reaktionsdiffusionsmodell för att bilda ett punktmönster med rätt orientering, storlek och densitet, vilket skapar en effektiv visualisering. För att koda riktning vi texturerar fläckarna med hjälp av en ljus till mörk blekning struktur. Vi visar också att det är möjligt att använda reaktionsdiffusionsmodellen för att visualisera ytterligare ett skalarvärde, som t.ex. osäkerheten i vektorfältets orientering. Ytterligare en fördel med visualiseringstekniken för reaktionsdiffusion är dess automatiska fördelning av densiteten. Denna fördel tyder på att använda tekniken för att öka andra vektorvisualisering tekniker. Vi demonstrerar denna nytta genom att förstärka en LIC visualisering med en reaktion-diffusion visualisering. Slutligen ger visualiseringsmetoden för reaktionsdiffusion en teknik som kan användas för strömlinjeformning och glyfplacering.
Sanderson m.fl. REF skapade en metod för att visualisera vektorfält samtidigt som den potentiellt uppvisar osäkerhet genom att använda en reaktionsdiffusionsmodell för att generera texturmönster med varierande former, storlekar och orienteringar.
15,670
Display of Vector Fields Using a Reaction-Diffusion Model
{'venue': 'IEEE Visualization 2004', 'journal': 'IEEE Visualization 2004', 'mag_field_of_study': ['Computer Science']}
83,195
Trådlösa 802.11 hotspots har vuxit på ett okoordinerat sätt med mycket varierande spridningstätheter. Sådana osamordnade utplaceringar, i kombination med svårigheten att genomföra samordningsprotokoll, har ofta lett till motstridiga konfigurationer (t.ex. i valet av överföringseffekt och driftkanal) bland de motsvarande åtkomstpunkterna. Sammantaget orsakar sådana konflikter både oförutsägbara nätverksprestanda och orättvisa bland kunder i angränsande hotspots. I detta dokument fokuserar vi på rättviseproblemet för osamordnade insatser. Vi studerar detta problem ur kanaltilldelningsperspektivet. Vår lösning är baserad på begreppet kanalhoppning, och uppfyller alla viktiga designöverväganden för kontrollmetoder vid okoordinerade installationer - distribuerade i naturen, minimal till noll samordning mellan AP som tillhör olika hotspots, enkla att genomföra, och driftskompatibla med befintliga standarder. I synnerhet föreslår vi en specifik algoritm som kallas MAXchop, som fungerar effektivt när man endast använder trådlösa kanaler som inte överlappar varandra, men som är särskilt effektiv när det gäller att utnyttja delvis överlappade kanaler som har föreslagits i den senaste litteraturen. Vi utvärderar också hur vår strategi för kanaltilldelning kompletterar tidigare föreslagna operatörsanalystekniker genom att tillhandahålla ytterligare prestandaförbättringar. Genom omfattande simuleringar på verkliga hotspot topologier och utvärdering av en fullständig implementering av denna teknik, visar vi effektiviteten av dessa tekniker för inte bara rättvisa, men också den aggregerade genomströmning, mätvärden. Vi tror att detta är det första arbetet som sätter fokus på rättvisa egenskaper hos kanalhoppningsteknik och vi hoppas att insikterna från denna forskning kommer att tillämpas på andra områden där en rättvis uppdelning av ett systems resurser är en viktig faktor.
I REF föreslås en kanalhopp algoritm som kallas MAXchop för okoordinerade nätverk för att förbättra rättvisa resursfördelning mellan angränsande celler.
2,759,775
Distributed channel management in uncoordinated wireless environments
{'venue': "MobiCom '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,196
Bakgrund: Sköldkörtelcancer är den vanligaste endokrina tumören med en stadig ökning av incidensen. Det klassificeras i flera histopatologiska subtyper med potentiellt distinkta molekylära mekanismer. Att identifiera de mest relevanta gener och biologiska vägar som rapporterats i sköldkörtelcancerlitteraturen är viktigt för att förstå sjukdomen och utveckla riktade terapier. Resultat: Vi utvecklade ett storskaligt textbrytningssystem för att generera en molekylär profilering av undertyper av sköldkörtelcancer. Systemet använder först en subtyp klassificeringsmetod för sköldkörtelcancer litteratur, som använder ett poängsättningsschema för att tilldela olika subtyper till artiklar. Vi utvärderade klassificeringsmetoden på en guldstandard härledd från PubMed Supplementary Concept annotations, uppnå en mikro-genomsnittlig F1-poäng på 85,9% för primära subtyper. Vi använde sedan subtyp klassificering resultat för att extrahera gener och vägar i samband med olika sköldkörtelcancer subtyper och framgångsrikt presenterade viktiga gener och vägar, inklusive några fall som saknas från nuvarande manuellt kommenterade databaser eller senaste översynsartiklar. Slutsatser: Identifiering av viktiga gener och vägar spelar en central roll för förståelsen av sköldkörtelcancerns molekylära biologi. En integrering av subtyp sammanhang kan tillåta prioriterad screening för diagnostiska biomarkörer och nya molekylära riktade terapier. Källkod som används för denna studie görs fritt tillgänglig på https:// github.com/chengkun-wu/GenesThyCan.
Vi har använt textbrytning för att konstruera en molekylär profilering (relaterade gener och vägar) av sköldkörtelcancer, klassificerad av vanliga subtyper REF.
2,622,219
Molecular profiling of thyroid cancer subtypes using large-scale text mining
{'venue': 'BMC Medical Genomics', 'journal': 'BMC Medical Genomics', 'mag_field_of_study': ['Medicine', 'Biology']}
83,197
Neurala nätverk är både beräkningsintensiva och minnesintensiva, vilket gör dem svåra att distribuera på inbyggda system med begränsade hårdvaruresurser. För att ta itu med denna begränsning, introducerar vi "djup kompression", en trestegs pipeline: beskärning, utbildad kvantisering och Huffman kodning, som arbetar tillsammans för att minska lagringskravet för neurala nätverk med 35× till 49× utan att påverka deras noggrannhet. Vår metod först beskär nätverket genom att lära sig bara viktiga anslutningar. Därefter kvantifierar vi vikterna för att tvinga fram viktdelning, slutligen använder vi Huffman-kodning. Efter de två första stegen tränar vi om nätverket för att finjustera de återstående anslutningarna och de kvantiserade centroiderna. Beskärning, minskar antalet anslutningar med 9× till 13×; Kvantisering minskar sedan antalet bitar som representerar varje anslutning från 32 till 5. På ImageNet dataset, vår metod minskade lagring som krävs av AlexNet med 35×, från 240MB till 6,9MB, utan förlust av noggrannhet. Vår metod minskade storleken på VGG-16 med 49× från 552MB till 11,3MB, igen utan förlust av noggrannhet. Detta gör det möjligt att montera modellen i on-chip SRAM cache snarare än off-chip DRAM minne. Vår komprimeringsmetod underlättar också användningen av komplexa neurala nätverk i mobila applikationer där applikationens storlek och nedladdningsbandbredd begränsas. Benchmarked på CPU, GPU och mobil GPU, komprimerat nätverk har 3× till 4× lagervis speedup och 3× till 7× bättre energieffektivitet.
En rörledning i tre steg föreslås i REF.
2,134,321
Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding
{'venue': 'ICLR 2016', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
83,198
Den utmaning som det många-kroppsproblem i kvantfysiken utgör har sitt ursprung i svårigheten att beskriva de icke-triviala korrelationer som är kodade i den exponentiella komplexiteten hos den många-kroppsvågfunktionen. Här visar vi att systematisk maskininlärning av vågfunktionen kan minska denna komplexitet till en dragbar beräkningsform, för vissa anmärkningsvärda fall av fysiskt intresse. Vi introducerar en variations representation av kvanttillstånd baserat på artificiella neurala nätverk med variabelt antal dolda neuroner. Därefter demonstreras ett system för förstärkningslärande som antingen kan hitta marktillståndet eller beskriva den enhetliga tidsutvecklingen av komplexa samverkande kvantsystem. Vi visar att detta tillvägagångssätt uppnår mycket hög noggrannhet i beskrivningen av jämvikt och dynamiska egenskaper hos prototypa interagerande snurrar modeller i både en och två dimensioner, vilket erbjuder ett nytt kraftfullt verktyg för att lösa kvant många-kroppsproblem. Vågfunktionen är det grundläggande objektet i kvantfysiken och kanske det svåraste att fatta i en klassisk värld. till är en monolitisk matematisk kvantitet som innehåller all information om ett kvanttillstånd, vare sig det är en enda partikel eller en komplex molekyl. I princip behövs en exponentiell mängd information för att fullständigt koda ett generiskt kvanttillstånd för många kroppar. Men naturen visar sig ofta vara välvillig, och en vågfunktion som representerar ett fysiskt många-kroppssystem kan typiskt karakteriseras av en mängd information mycket mindre än den maximala kapaciteten i motsvarande Hilbert utrymme. En begränsad mängd quantum trassling, liksom den typiska för ett litet antal fysiska tillstånd, är då de block på vilka moderna metoder bygger vidare för att lösa mångkropps Schrödinger ekvation med en begränsad mängd klassiska resurser. Numeriska metoder som är direkt beroende av vågfunktionen kan antingen ta prov på ett begränsat antal fysiskt relevanta konfigurationer eller utföra en effektiv komprimering av kvanttillståndet. Stochastic metoder, som kvant Monte Carlo (QMC) metoder, tillhör den första kategorin och förlitar sig på probabilistiska ramar som vanligtvis kräver en positiv-semidefinit våg funktion. [1] [2] [3]................................................................................................ Kompression tillvägagångssätt i stället förlitar sig på effektiva representationer av vågfunktionen, och särskilt när det gäller matris produkttillstånd (MPS) [4] [5] [6] eller mer allmänna tensor nätverk [7, 8]. Exempel på system där befintliga metoder misslyckas är dock många, främst på grund av teckenproblemet i QMC [9], och på grund av ineffektiviteten i nuvarande komprimeringsmetoder i högdimensionella system. Trots dessa metoders slående framgång finns det därför ett stort antal outforskade regimer, däribland många intressanta öppna problem. Dessa omfattar grundläggande frågor som sträcker sig från de dynamiska egenskaperna hos högdimensionella system [10, 11] till de exakta marktillståndsegenskaperna hos starkt interagerande fermioner [12, 13]. I hjärtat av denna brist på förståelse ligger svårigheten att hitta en allmän strategi för att minska den exponentiella komplexiteten hos hela den många-kroppsvågen funktion ner till dess mest väsentliga egenskaper [14]. I ett mycket bredare sammanhang finns problemet i området för dimensionell minskning och funktionsutdragning. Bland de mest framgångsrika teknikerna för att angripa dessa problem spelar artificiella neurala nätverk en framträdande roll [15]. De kan prestera mycket bra i en mängd olika sammanhang som sträcker sig från bild- och taligenkänning [16] till spelspel [17]. Mycket nyligen har tillämpningar av neurala nätverk till studien av fysiska fenomen införts [18] [19] [20]. Dessa har hittills fokuserat på klassificering av komplexa faser av materia, när exakt provtagning av konfigurationer från dessa faser är möjlig. Det utmanande målet att lösa ett problem med många kroppar utan förkunskaper om exakta prover är dock fortfarande outforskat och de potentiella fördelarna med artificiell intelligens i denna uppgift är för närvarande avsevärt okända. Det verkar därför av fundamentalt och praktiskt intresse att förstå om ett artificiellt neuralt nätverk kan modifiera och anpassa sig för att beskriva och analysera ett kvantsystem. Denna förmåga skulle sedan kunna användas för att lösa kvantproblemet med många kroppar i dessa regimer som hittills varit otillgängliga genom befintliga exakta numeriska metoder. Här introducerar vi en representation av vågfunktionen i termer av artificiella neurala nätverk specificerade av en uppsättning interna parametrar W. Vi presenterar en stochasarXiv:1606.02318v1 [cond-mat.dis-nn]
Maskininlärning approximation hanteras också att användas för att påskynda kvantdatorkärnor REF, där Carleo och Troyer tillämpa maskininlärning approximation på en av de största utmaningarna i kvantfysik: den många-kroppsproblem, som beskriver de komplexa korrelationer inom den många-kroppsvåg funktion.
206,651,104
Solving the Quantum Many-Body Problem with Artificial Neural Networks
{'venue': 'Science 355, 602 (2017)', 'journal': None, 'mag_field_of_study': ['Medicine', 'Physics']}
83,199
Semantiska ordrymder har varit mycket användbara men kan inte uttrycka betydelsen av längre fraser på ett principfast sätt. Ytterligare framsteg mot att förstå kompositionalitet i uppgifter som att upptäcka känslor kräver rikare övervakade utbildnings- och utvärderingsresurser och kraftfullare modeller för sammansättning. För att råda bot på detta inför vi en Sentiment Treebank. Den innehåller finkorniga känsloetiketter för 215.154 fraser i parseträden på 11.855 meningar och innebär nya utmaningar för känslosammansättningen. För att ta itu med dem, introducerar vi Recursive Neural Tensor Network. Vid utbildning på den nya trädbanken överträffar denna modell alla tidigare metoder på flera mätvärden. Det driver den senaste tekniken i en enda mening positiv / negativ klassificering från 80% upp till 85,4%. Noggrannheten i att förutsäga finkorniga känslor etiketter för alla fraser når 80,7%, en förbättring på 9,7% jämfört med påse med funktioner baslinjer. Slutligen är det den enda modell som exakt kan fånga effekterna av negation och dess omfattning på olika trädnivåer för både positiva och negativa fraser.
Nyligen föreslog REF användningen av Recursive Neural Tensor Network (RNTN) för känsloanalys.
990,233
Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,200
ABSTRACT Ett nytt koncept för kantmolnet har nyligen införts för att minska överföringskostnaderna för mobila molntjänster. Heterogena nät med olika radionät kommer att vara omfattande i framtiden. I detta dokument föreslår vi en rumslig och temporal beräkning offloading beslutsalgoritm (ST-CODA) i kant moln-aktiverade heterogena nätverk. I ST-CODA avgör en mobil enhet var och när uppgifterna ska behandlas med hjälp av en Markov-beslutsprocess med beaktande av olika beräkningsnoders processtid och energiförbrukning samt överföringskostnaderna i heterogena nät. Omfattande utvärderingsresultat ges för att visa ST-CODA:s effektivitet när det gäller överföringskostnader, den mobila enhetens energieffektivitet och antalet uppgifter som kan behandlas innan tidsfristen löper ut. INDEX TERMS Cloud computing, edge cloud, mobile edge computing (MEC), beräkningsavlastning, Markov beslutsprocess (MDP), optimering, heterogena nätverk.
Författarna har använt REF spatiotemporal Markov beslutsprocess för att optimera energiförbrukning, processtid och överföringskostnader för en synkron aktivitet offloading bland en mobil enhet, kantnätet, och molnet.
5,021,825
Spatial and Temporal Computation Offloading Decision Algorithm in Edge Cloud-Enabled Heterogeneous Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
83,201
Eftersom processorprestanda skalbarhet nu främst kommer att uppnås genom trådnivå parallellism, finns det ett starkt incitament att parallellisera ett brett spektrum av applikationer, inklusive de med komplexa kontrollflöde och datastrukturer. Och att skriva parallella program är en notoriskt svår uppgift. Förutom processorprestanda kan arkitekten hjälpa till genom att underlätta programmerarens uppgift, särskilt genom att förenkla modellen som exponeras för programmeraren. I denna artikel, bland de många frågor som förknippas med att skriva parallella program, fokuserar vi på att hitta lämplig parallellism granularitet, och effektivt kartlägga uppgifter med komplex kontroll och dataflöde till trådar. Vi föreslår att avlasta användaren och kompilatorn av båda uppgifterna genom att delegera parallelliseringsbeslutet till arkitekturen vid körtid, genom en kombination av hårdvara och programvarustöd och en stram dialog mellan båda. För programvarusupporten utnyttjar vi en allt mer populär strategi inom programvaruteknik, kallad komponentbaserad programmering; komponentkontraktet förutsätter snäv inkapsling av kod och data för enkel manipulering. Tidigare forskningsprojekt har visat att det är möjligt att utöka komponenter med förmågan att dela/spawn, vilket ger ett enkelt och passande tillvägagångssätt för programmering av parallella applikationer med komplexa styr- och datastrukturer. Sådana miljöer kräver dock fortfarande programmeraren för att avgöra lämplig granularitet av parallellism, och leken har betydande overheads på grund av programvara kör-tid systemhantering. För det ändamålet ger vi en miljö med möjlighet att skapa villkorligt beroende på tillgängliga hårdvaruresurser, och vi delegerar lekbeslut och åtgärder till arkitekturen. Detta villkorliga lekande genomförs genom frekvent hårdvaruresurs undersökning av programmet. Detta möjliggör i sin tur snabb anpassning till varierande arbetsförhållanden, datamängder och hårdvaruresurser. Dessutom, tack vare lämplig kombinerad hårdvara och kompilator stöd, undersökningen har ingen betydande overhead på programmets prestanda. Vi demonstrerar detta tillvägagångssätt på en 8-kontext SMT, flera icke-triviala algoritmer och omkonstruerade SPEC CINT2000 riktmärken, skrivna med hjälp av komponentsyntax bearbetas av vår verktygskedja. Vi uppnår speedups från 1.1 till 3.0 på vår testsvit.
Capsule REF delegerar parallelliseringsbeslutet till arkitekturen vid körtid genom frekvent hårdvaruresurs undersökning av programmet.
14,195,870
CAPSULE: Hardware-Assisted Parallel Execution of Component-Based Programs
{'venue': "2006 39th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO'06)", 'journal': "2006 39th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO'06)", 'mag_field_of_study': ['Computer Science']}
83,202
Nätverkskodning har fått stor uppmärksamhet i nätverksgemenskapen för dess potential att öka genomströmningen och förbättra robustheten utan någon centraliserad kontroll. Tyvärr är nätverkskodning mycket känslig för "föroreningar attacker" där skadliga noder ändra paket på ett sätt som förhindrar återuppbyggnad av information hos mottagare; sådana attacker kan inte förhindras med hjälp av standard end-to-end kryptografisk autentisering eftersom nätverkskodning kräver att mellanliggande noder ändra datapaket i transit. Specialiserade lösningar på problemet har utvecklats under de senaste åren baserat på homomorfisk hashing och homomorphic signaturer. De senare är mer bandbreddseffektiva men kräver mer beräkning; i synnerhet använder den enda kända konstruktionen tvålinjära kartor. Vi bidrar på flera sätt till detta område. Vi presenterar det första homomorphic signature systemet baserat enbart på RSA antagande (i den slumpmässiga oracle modellen), och presentera en homomorphic hashing system baserat på sammansatta moduli som är beräkningsmässigt effektivare än befintliga system (och som leder till säker nätverkskodning signaturer baserade enbart på hårdheten av factoring i standardmodellen). Båda systemen använder kortare allmänna nycklar än tidigare system. Dessutom visar vi varianter av befintliga system som minskar omkostnaderna för kommunikation betydligt för medelstora nätverk, och som förbättrar beräkningseffektiviteten i vissa fall ganska dramatiskt (t.ex., vi uppnår en 20-faldig hastighet i beräkningen av mellanliggande noder). Kärnan i våra tekniker är en modifierad strategi för nätverkskodning där vi istället för att arbeta i ett vektorutrymme över ett fält arbetar direkt över heltalen (med små koefficienter).
Gennaro, Katz, Krawczyk och Rabin beskrev därefter en homomorfisk signatur REF över heltalen baserat på RSA antagande i den slumpmässiga orakle modellen.
12,209,679
Secure network coding over the integers
{'venue': 'In Public Key Cryptography — PKC ’10, Springer LNCS 6056', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,203
Att utnyttja tidigare utfärdade frågor för att underlätta samverkansförfrågningar är ett tillvägagångssätt som kan hjälpa användare i digitala bibliotek och andra informationssystem att bättre tillgodose sina informationsbehov. Här är kärnan steg för att identifiera och kluster liknande frågor genom att bryta frågeloggar. Men på grund av den korta längden av frågor, är det relativt svårt att kluster frågor effektivt använda endast termer eftersom de inte kan förmedla tillräckligt med information. Detta papper introducerar en hybrid metod för att samla frågor genom att använda både frågetermer och resultaten returneras till frågor. Experiment visar att denna metod överträffar befintliga frågekluster tekniker.
REF föreslår en hybridmetod för att samla frågor genom att använda både frågetermer och frågeresultat, som visar att denna kombination fungerar bättre än att använda någondera metoden ensam.
4,671,876
Collaborative Querying through a Hybrid Query Clustering Approach
{'venue': 'ICADL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,204
Vi anser klassificering av e-postmeddelanden om huruvida de innehåller vissa "e-posthandlingar", såsom en begäran eller ett åtagande. Vi visar att utnyttja den sekventiella korrelationen mellan e-postmeddelanden i samma tråd kan förbättra e-akt klassificering. Mer specifikt beskriver vi en ny textklassificeringsalgoritm baserad på en beroendenätverksbaserad kollektiv klassificeringsmetod, där de lokala klassificeringarna är maximala entropimodeller baserade på ord och vissa relationsegenskaper. Vi visar att statistiskt signifikanta förbättringar över en bag-of-words baslinje klassificering kan erhållas för vissa, men inte alla, e-akt klasser. Prestandaförbättringar som uppnås genom kollektiv klassificering verkar vara konsekventa i många e-postmeddelanden som föreslås av föregående tal-akt teori.
Carvalho och Cohen presenterar en beroende-nätverksbaserad kollektiv klassificeringsmetod för att klassificera e-posttalakter REF.
188,891,375
On the collective classification of email "speech acts"
{'venue': "SIGIR '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,205
Abstract-I detta dokument, problemet med upplänk användare förening i små cellnätverk, vilket innebär interaktioner mellan användare, små cell basstationer, och makro-cell stationer, med ofta motstridiga mål, beaktas. Problemet är formulerat som ett college antagning spel med överföringar där ett antal högskolor, dvs små cell-och makro-cell stationer försöker rekrytera ett antal studenter, dvs, användare. I det här spelet, användare och åtkomstpunkter (små celler och makroceller) ranka varandra baserat på preferensfunktioner som fångar användarnas behov av att optimera sina verktyg som är funktioner av paket framgång (PSR) och fördröja samt de små cellernas incitament att utöka makro-cell täckning (t.ex. via cell partisk/range expansion) samtidigt som användarens kvalitet-of-service. En distribuerad algoritm som kombinerar föreställningar från matchande teori och koalitionsspel föreslås för att lösa spelet. Konvergensen av algoritmen visas och egenskaperna hos de resulterande uppdragen diskuteras. Simuleringsresultat visar att den föreslagna metoden ger en prestandaförbättring när det gäller den genomsnittliga nyttan per användare och når upp till 23 % i förhållande till en konventionell, bäst-PSR-algoritm.
Till exempel Saad et al. REF övervägde problemet med upplänk användare association i små cellnätverk, och föreslog sedan en distribuerad algoritm för att lösa det.
14,908,254
A college admissions game for uplink user association in wireless small cell networks
{'venue': 'IEEE INFOCOM 2014 - IEEE Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2014 - IEEE Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
83,206
Abstract-Matrix factorization, när matrisen har saknade värden, har blivit en av de ledande teknikerna för rekommendationssystem. För att hantera webscale dataset med miljontals användare och miljarder av betyg, skalbarhet blir en viktig fråga. Alternating Least Squares (ALS) och Stochastic Gradient Descent (SGD) är två populära metoder för att beräkna matris factorization. Det har varit en nyligen flurry av aktivitet för att parallellisera dessa algoritmer. På grund av kubiktidens komplexitet i målrangen är ALS dock inte skalbart till storskaliga datauppsättningar. Å andra sidan genomför SGD effektiva uppdateringar men lider vanligtvis av långsam konvergens som är känslig för parametrarna. Koordinatnedstigning, en klassisk optimeringsmetod, har använts för många andra storskaliga problem, men dess tillämpning på matris factorization för recommender system har inte undersökts grundligt. I detta dokument visar vi att koordinatmetoder har en effektivare uppdateringsregel jämfört med ALS, och är snabbare och har stabilare konvergens än SGD. Vi studerar olika uppdateringssekvenser och föreslår CCD++ algoritmen, som uppdaterar rank-en faktorer en efter en. Dessutom kan CCD++ enkelt parallelliseras på både flerkärniga och distribuerade system. Vi visar empiriskt att CCD++ är mycket snabbare än ALS och SGD i båda inställningarna. På ett syntetiskt dataset med 2 miljarder betyg är CCD++ 4 gånger snabbare än både SGD och ALS med ett distribuerat system med 20 maskiner.
Yu, Hsieh, Si och Dhillon i REF jämför ALS metoder till Stochastic Gradient Descent (SGD) metoder och Samordna Descent metoder.
924,233
Scalable Coordinate Descent Approaches to Parallel Matrix Factorization for Recommender Systems
{'venue': '2012 IEEE 12th International Conference on Data Mining', 'journal': '2012 IEEE 12th International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']}
83,207
Observera Detta dokument är för närvarande under övervägande på Mönsterigenkänningsbrev. Djupa Residual Networks har nått den senaste tekniken i många bildbehandlingsuppgifter sådan bildklassificering. Kostnaden för en vinst i exakthet i fråga om djup och minne är dock oöverkomlig eftersom det kräver ett högre antal restblock, upp till dubbla det ursprungliga värdet. För att ta itu med detta problem föreslår vi i detta dokument ett sätt att minska den överflödiga informationen om nätverken. Vi delar vikterna i de konvolutionella skikten mellan restblock som arbetar i samma rumsliga skala. Signalen flödar flera gånger i samma konvolutionella lager. Den resulterande arkitekturen, kallad ShaResNet, innehåller blockspecifika lager och delade lager. Dessa ShaResNet utbildas exakt på samma sätt som de allmänt använda kvarvarande nätverk. Vi visar å ena sidan att de är nästan lika effektiva som sina sekventiella motsvarigheter samtidigt som de omfattar mindre parametrar, och å andra sidan att de är effektivare än ett resterande nät med samma antal parametrar. Till exempel kan ett -lagerdjupt resterande nät reduceras till konvolutionsskikt, dvs. en parametervinst på % och mindre än. % noggrannhet på ImageNet.
Boulch REF föreslog att man skulle dela vikter mellan restblock för att minska antalet parametrar utan att förlora mycket prestanda.
9,169,057
ShaResNet: reducing residual network parameter number by sharing weights
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,208
Denna tidning studerar sändning och skvaller algoritmer i slumpmässiga och allmänna AdHoc-nätverk. Vårt mål är inte bara att minimera sändnings- och skvallertiden, utan också att minimera energiförbrukningen, vilket mäts i det totala antalet meddelanden (eller sändningar) som skickas. Vi antar att noderna i nätverket inte känner till nätverket, och att de bara kan skicka med en fast effekt, vilket innebär att de inte kan justera areastorlekarna som deras meddelanden täcker. Vi anser att antalet sändningar under dessa omständigheter är en mycket bra åtgärd för den totala energiförbrukningen. För slumpmässiga nätverk presenterar vi en sändningsalgoritm där varje nod sänder som mest en gång. Vi visar att vår algoritm sänder i O(log n) steg, w.h.p., där n är antalet noder. Vi presenterar sedan en O(d log n) (d är den förväntade graden) skvaller algoritm med hjälp av O(log n) meddelanden per nod. För allmänna nätverk med känd diameter D presenterar vi en randomiserad sändningsalgoritm med optimal sändningstid O(D log(n/D) + log 2 n) som använder ett förväntat antal O(log 2 n/ log(n/D)) sändningar per nod. Vi visar också ett kompromissresultat mellan sändningstiden och antalet sändningar: vi konstruerar ett nätverk så att alla omedvetna algoritmer med hjälp av en tidsinvariant distribution kräver och (log 2 n/ log (n/D)) meddelanden per nod för att avsluta sändningar i optimal tid. Detta visar hur trångt vårt övre band är. Vi visar också att ingen omedveten algoritm kan slutföra sändningar w.h.p. Använda o(log n) meddelanden per nod.
Algoritm av Berenbrink et al. REF fungerar i en annan regim av energi - våra algoritmer arbetar med energi o(log n) och tid (D log n + log 2 n).
411,463
Energy efficient randomised communication in unknown AdHoc networks
{'venue': "SPAA '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,209
Abstract-Low-höjd flygplattformar (LAPs) har nyligen vunnit betydande popularitet som viktiga möjliggörare för snabba utplaceringsbara reliefnätverk där täckning tillhandahålls av ombord radiohuvuden. Dessa plattformar kan tillhandahålla viktig trådlös kommunikation för offentliga säkerhetsbyråer i avlägsna områden eller i efterdyningarna av naturkatastrofer. I detta brev presenterar vi ett analytiskt tillvägagångssätt för att optimera höjden på sådana plattformar för att ge maximal radiotäckning på marken. Vår analys visar att den optimala höjden är en funktion av den maximala tillåtna vägförlusten och av de statistiska parametrarna i stadsmiljön, såsom den definieras av Internationella teleunionen. Dessutom presenterar vi en sluten formel för att förutsäga sannolikheten för den geometriska siktlinjen mellan en LAP och en markmottagare. Index Terms-Low höjd plattform, luft-till-mark kommunikation, radioutbredning, sannolikhet för siktlinje.
Al-Hourani m.fl. ge en analytisk metod för att optimera höjden på en DBS för att ge maximal täckning för mark UE REF.
23,138,928
Optimal LAP Altitude for Maximum Coverage
{'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,210
Utbildning av storskaliga djupa neurala nätverk begränsas ofta av tillgängliga beräkningsresurser. Vi studerar effekten av begränsad precision data representation och beräkning på neurala nätverk utbildning. Inom ramen för låga precisionsberäkningar, observerar vi avrundningsschemat för att spela en avgörande roll för att bestämma nätverkets beteende under utbildningen. Våra resultat visar att djupa nätverk kan tränas med endast 16-bitars bred fast punkt nummer representation när du använder stokastisk avrundning, och medför lite till ingen försämring i klassificeringen noggrannhet. Vi demonstrerar också en energieffektiv hårdvaruaccelerator som implementerar låg precision fast punkt aritmetik med stokastisk avrundning.
Gupta m.fl. I REF studerades effekten av begränsad precisionsdatarepresentation i samband med utbildning av CNN.
2,547,043
Deep Learning with Limited Numerical Precision
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,211
Att tillhandahålla en effektiv återkallelsemekanism för identitetsbaserad kryptering (IBE) är mycket viktigt eftersom en användares trovärdighet (eller privata nyckel) kan upphöra att gälla eller avslöjas. Återkallbar IBE (RIBE) är en förlängning av IBE som ger en effektiv återkallelsemekanism. Tidigare RIBE-system använder i huvudsak hela systemet med delträd (CS) för nyckelåterkallelse. I detta dokument presenterar vi en ny teknik för RIBE som använder den effektiva delmängd skillnad (SD) systemet eller den skiktade delmängd skillnad (LSD) systemet i stället för att använda CS-systemet för att förbättra storleken på uppdateringsnycklar. Efter vår nya teknik föreslår vi först ett effektivt RIBE-system i prime-order bilinear grupper genom att kombinera IBE-systemet för Boneh och Boyen och SD-systemet och bevisa dess selektiva säkerhet enligt standardantagandet. Vårt RIBE-system är det första RIBE-systemet i bilinjära grupper som har O(r) antal gruppelement i uppdateringsnycklarna. Därefter föreslår vi också ett annat RIBE-system i sammansatta tvåradiga grupper och visar sin fulla säkerhet under statiska antaganden. Våra RIBE-system kan också integreras med LSD-systemet för att minska storleken på privata nycklar.
Lee och Al. I REF föreslås ett system för återkallbar säkerhet för adaptiv identitet (RIBE) med parningar med hjälp av metoden för delmängdsskillnad.
972,309
Efficient Revocable Identity-Based Encryption via Subset Difference Methods.
{'venue': None, 'journal': 'Designs, Codes and Cryptography', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,212
I detta dokument föreslår vi en ny metod som kombinerar PubMed kunskap och Electronic Health Records för att utveckla en viktad Bayesian Network Inference (BNI) modell för bukspottkörtelcancer förutsägelse. Vi valde ut 20 gemensamma riskfaktorer i samband med pankreascancer och använde PubMed kunskap för att väga riskfaktorerna. En nyckelordsbaserad algoritm utvecklades för att extrahera och klassificera PubMed abstracts i tre kategorier som representerade positiva, negativa eller neutrala associationer mellan varje riskfaktor och pankreascancer. Sedan konstruerade vi en viktad BNI-modell genom att lägga till normaliserade vikter i en konventionell BNI-modell. Vi använde denna modell för att extrahera EHR-värdena för patienter med eller utan pankreascancer, vilket gjorde det möjligt för oss att beräkna de tidigare sannolikheterna för de 20 riskfaktorerna i BNI. Programvaran iDiagnosis var utformad för att använda denna viktade BNI modell för att förutsäga pankreascancer. I en utvärdering med hjälp av en uppsättning fallkontrolldata överträffade den viktade BNI-modellen betydligt den konventionella BNI-modellen och två andra klassiatorer (k-Nearest Neighbor and Support Vector Machine). Vi drar slutsatsen att den viktade BNI med hjälp av PubMed kunskap och EHR data visar anmärkningsvärd noggrannhet förbättring jämfört med befintliga representativa metoder för bukspottkörtelcancer förutsägelse.
Ett liknande tillvägagångssätt för att förutsäga pankreascancer tillämpas på olika datauppsättningar inklusive PubMed kunskap och EHR register genom att bygga en viktad Bayesian Network Inference (BNI) modell REF.
21,583,151
Combining PubMed knowledge and EHR data to develop a weighted bayesian network for pancreatic cancer prediction
{'venue': 'Journal of biomedical informatics', 'journal': 'Journal of biomedical informatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,213
Djupa konvolutionella neurala nätverk (CNN) är oumbärliga för toppmoderna datorseende algoritmer. Men de är fortfarande sällan utplacerade på batteridrivna mobila enheter, såsom smartphones och bärbara prylar, där visionalgoritmer kan möjliggöra många revolutionerande verkliga applikationer. Den viktigaste begränsande faktorn är den höga energiförbrukningen vid CNN-bearbetning på grund av dess höga beräkningskomplexitet. Även om det finns många tidigare insatser som försöker minska CNN-modellens storlek eller mängden beräkning, finner vi att de inte nödvändigtvis resulterar i lägre energiförbrukning. Dessa mål fungerar därför inte som ett bra mått för uppskattningen av energikostnaderna. För att minska klyftan mellan CNN-design och optimering av energiförbrukningen föreslår vi en energibesparande beskärningsalgoritm för CNN som direkt använder CNN:s energiförbrukning för att styra beskärningsprocessen. Energiskattningsmetoden använder parametrar som extrapolerats från faktiska maskinvarumätningar. Den föreslagna layerby-layer beskärningsalgoritmen beskärs också mer aggressivt än tidigare föreslagna beskärningsmetoder genom att minimera felet i utdatafunktionskartorna istället för filtervikterna. För varje lager beskärs vikterna först och finjusteras sedan lokalt med en sluten, minstkvadratlösning för att snabbt återställa noggrannheten. När alla lager är beskurna, hela nätverket är globalt finjusterade med hjälp av backpropagation. Med den föreslagna beskärningsmetoden, är energiförbrukningen av AlexNet och GoogLeNet minskas med 3,7× respektive 1,6×, med mindre än 1% topp-5 noggrannhet förlust. Vi visar också att minska antalet målklasser i AlexNet kraftigt minskar antalet vikter, men har en begränsad inverkan på energiförbrukningen.
Eftersom modellens storlek på en DNN inte direkt återspeglar hårdvaruenergiförbrukningen, föreslår REF en energimedveten metod för att beskära vikterna.
2,779,809
Designing Energy-Efficient Convolutional Neural Networks Using Energy-Aware Pruning
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
83,214
Framgången med djupt lärande i vision kan tillskrivas: a) modeller med hög kapacitet, b) ökad beräkningskraft, och c) tillgång till storskaliga märkta data. Sedan 2012 har det skett betydande framsteg i representationskapaciteten hos modellerna och beräkningskapaciteten hos GPU. Men storleken på den största datauppsättningen har förvånansvärt nog förblivit konstant. Vad händer om vi ökar datasetet storlek med 10× eller 100×? Detta papper tar ett steg mot att rensa molnen av mysterium som omger förhållandet mellan "enorma data" och visuellt djupt lärande. Genom att utnyttja JFT-300M-datasetet som har mer än 375M bullriga etiketter för 300M-bilder undersöker vi hur utförandet av aktuella visionsuppgifter skulle förändras om dessa data användes för representationsinlärning. Vår tidning ger en del överraskande (och en del förväntade) resultat. För det första ser vi att prestandan på visionsuppgifter ökar logaritmiskt baserat på volym av träningsdata storlek. För det andra visar vi att läran om representation (eller förutbildningen) fortfarande är mycket lovande. Man kan förbättra prestandan på många visioner genom att bara träna en bättre basmodell. Slutligen presenterar vi som förväntat nya resultat från hjärtats tillstånd för olika visionsuppgifter, inklusive bildklassificering, objektdetektering, semantisk segmentering och bedömning av människans pose. Vår uppriktiga förhoppning är att detta inspirerar visionsgemenskapen att inte underskatta data och utveckla kollektiva insatser för att bygga större datauppsättningar.
I REF avslöjar författarna ett logaritmiskt samband mellan utförandet av visionsuppgifter och den mängd utbildningsdata som används för representationsinlärning.
6,842,201
Revisiting Unreasonable Effectiveness of Data in Deep Learning Era
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
83,215
Parallella och distribuerade system kan fungera i en miljö som genomgår oförutsägbara förändringar som får vissa systemprestandafunktioner att försämras. Sådana system behöver robusthet för att garantera begränsad nedbrytning trots variationer i beteendet hos dess komponenter eller miljö. Denna forskning undersöker robustheten i en resursfördelning till uppgifter i parallella och distribuerade system. De viktigaste bidragen i detta dokument är 1) en matematisk beskrivning av ett mått för robustheten hos en resursallokering med avseende på önskade systemprestandaegenskaper mot multipla störningar i flera system- och miljöförhållanden, och 2) ett förfarande för att härleda en robusthetsmätare för ett godtyckligt system. För illustration används detta förfarande för att härleda robusthetsmått för tre exempel distribuerade system. Ett sådant mått kan hjälpa forskare att utvärdera en given resursallokering för robusthet mot osäkerheter i angivna perturberingsparametrar. Index Terms-Robustness, robusthet metrisk, resursfördelning, resurshanteringssystem, parallella och distribuerade system.
För denna studie använder vi den definition av robusthet som används i REF som fokuserar på robustheten hos en resursallokering i ett parallellt och distribuerat datorsystem.
51,861,299
Measuring the robustness of a resource allocation
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
83,216
Bakgrund. Felfri diagnos av Alzheimers sjukdom (AD) från friska kontroll (HC) patienter i ett tidigt skede av sjukdomen är en stor oro, eftersom information om tillståndets svårighetsgrad och utvecklingsrisker närvarande tillåter AD-sjuka att vidta försiktighetsåtgärder innan irreversibel hjärnskada inträffar. Nyligen har det funnits ett stort intresse för datorstödd diagnos för klassificering av magnetisk resonansbild (MRI). Det är dock svårt att skilja mellan Alzheimers hjärndata och friska hjärndata hos äldre vuxna (ålder > 60 år) på grund av deras mycket likartade hjärnmönster och bildstyrka. På senare tid, banbrytande funktion utvinning teknik har hittat omfattande tillämpning inom många områden, inklusive medicinsk bildanalys. Här föreslår vi en dual-tree komplex wavelet transform (DTCWT) för att extrahera funktioner från en bild. Funktionsvektorns dimensionalitet minskas genom användning av huvudkomponentanalys (PCA). Den reducerade vektorn skickas till feed-forward neurala nätverk (FNN) för att skilja AD och HC från indata MR bilder. Dessa föreslagna och genomförda rörledningar, som visar på förbättringar i klassificeringsproduktionen jämfört med de senaste studierna, resulterade i en hög och reproducerbar noggrannhet på 90,06 ± 0,01 % med en känslighet på 92,00 ± 0,04 %, en specificitet på 87,78 ± 0,04 %, och en precision på 89,6 ± 0,03 % med 10-faldig korsvalidering.
En annan liknande metod föreslogs av Jha et al. REF, där en dual-tree komplexa wavelet transform användes för att extrahera funktioner, och en feed-forward neural nätverk användes för att klassificera sMRI skanningar.
10,249,347
Diagnosis of Alzheimer's Disease Using Dual-Tree Complex Wavelet Transform, PCA, and Feed-Forward Neural Network
{'venue': 'Journal of healthcare engineering', 'journal': 'Journal of healthcare engineering', 'mag_field_of_study': ['Medicine']}
83,217
Sammanfattning av denna webbsida: MQTT-S och CoAP är två protokoll som kan använda modellen för publicering/prenumeration i trådlösa Sensor Networks (WSN). Den höga skalbarhet som ges av modellen för publicering/prenumeration kan medföra en hög paketförlust och kräver därför en effektiv tillförlitlighetsmekanism för att hantera denna situation. Tillförlitlighetsmekanismen för MQTT-S och CoAP använder en metod som definierar ett fast värde för tidsgränsen för vidaresändning (RTO). Denna artikel hävdar att denna metod inte är effektiv för att distribuera publicering/prenumeration i WSN, eftersom det kan vara omöjligt att återställa ett paket, vilket resulterar i en lägre paketleveranskvot (PDR) vid abonnentnoder. I denna artikel föreslås och utvärderas en adaptiv RTO-metod, som består i att använda en jämn Round-trip Tid och multiplicera den med en konstant parameter (K). Tack vare denna metod skulle tillförlitlighetsmekanismen för MQTT-S och CoAP kunna reagera korrekt på paketförluster och även vara lätt när det gäller energi, minne och databehandling för sensornoder där dessa resurser är kritiska. Vi presenterar en detaljerad utvärdering av K-värdets effekter på beräkningen av adaptiv RTO-metoden. Vi etablerar också inställningen för att erhålla den högsta PDR på abonnentnoder för singel-hop och multi-hop scenarier. Resultaten för singelhopscenariot visar att användningen av lämpligt K-värde för adaptiv RTO-metod ökar PDR upp till 76 % för MQTT-S och upp till 38 % för CoAP jämfört med användningen av fast RTO-metod för båda protokollen. Samtidigt samma jämförelse för multi-hop scenario, adaptiv RTO-metoden ökar PDR upp till 36% för MQTT-S och upp till 14% för CoAP.
I REF presenterar författarna en studie av den tillförlitlighetsmekanism som används i MQTT-S- och CoAP-protokollen.
5,128,422
Improving Packet Delivery Performance of Publish/Subscribe Protocols in Wireless Sensor Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']}
83,218
Detta papper studerar obemannade luftfartyg (UAV)aktiverad trådlös kommunikation, där en roterande UAV sänds för att kommunicera med flera marknoder (GNs). Vi strävar efter att minimera den totala UAV-energiförbrukningen, inklusive både framdrivningsenergi och kommunikationsrelaterad energi, samtidigt som vi uppfyller kravet på kommunikation genomströmning för varje GN. För detta ändamål, vi först härleda en sluten-form framdrivning effektförbrukning modell för roterande-wing UAVs, och sedan formulera energiminimering problem genom att gemensamt optimera UAV bana och kommunikationstid fördelning bland GNs, samt den totala uppdraget slutförande tid. Problemet är svårt att lösa optimalt, eftersom det är icke-konvext och omfattar oändligt många variabler över tiden. För att ta itu med detta problem, vi först överväga den enkla flug-hover kommunikativa design, där UAV successivt besöker en uppsättning svävande platser och kommunicerar med en motsvarande GN medan svävande på varje plats. För denna design, föreslår vi en effektiv algoritm för att optimera svävande platser och durationer, samt flygbanan ansluter dessa svävande platser, genom att utnyttja den resande säljare problem med grannskapet och konvex optimering tekniker. Därefter tar vi hänsyn till det allmänna fallet, där UAV också kommunicerar under flygning. Vi föreslår en ny väg diskretiseringsmetod för att omvandla det ursprungliga problemet till en diskretiserad ekvivalent med ett begränsat antal optimeringsvariabler, för vilka vi får en suboptimal lösning av hög kvalitet genom att tillämpa den successiva konvexa approximeringstekniken. De numeriska resultaten visar att de föreslagna modellerna avsevärt överträffar referenssystemet.
I detta dokument försöker vi karakterisera energi- och tidsväxlingen för ett roterande vinge-baserat WFCN-nät med hjälp av den roterande UAV-propulsionsenergiförbrukningsmodell som föreslås i REF, där den minsta UAV-energiförbrukningen optimerades av UAV-banan
4,684,972
Energy Minimization for Wireless Communication With Rotary-Wing UAV
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,219
I storskaliga trådlösa sensornätverk (WSNs), noder nära att sjunka noder förbrukar energi snabbare än andra noder på grund av paket vidarebefordring. En mobil diskho är en bra lösning på denna fråga, även om det orsakar två nya problem för noder: i) overhead av uppdatering routing information, och ii) ökad drifttid på grund av en periodisk fråga. För att lösa dessa problem föreslås i detta dokument en energieffektiv datainsamlingsmetod, Sink-baserad centraliserad överföring Scheduling (SC-Sched), genom att integrera asymmetrisk kommunikation och väcka radio. I synnerhet är varje nod utrustad med en lågeffektsuppvakningsmottagare. Sjunknoden bestämmer överföringsschemat, och sänder ett uppvaknande meddelande med hjälp av en stor överföringseffekt, som direkt aktiverar ett par noder samtidigt som den kommunicerar med en normal överföringseffekt. I detta dokument undersöks vidare hur man ska hantera ramförlust som orsakas av blekning och hur man kan minska effekterna av uppvaknande latens av kommunikationsmoduler. Simuleringsutvärderingar bekräftar att användningen av flera kanaler effektivt minskar datainsamlingstiden och SC-Sched fungerar bra med en mobil diskbänk. Jämfört med den konventionella duty-cycling metoden, SC-Sched kraftigt minskar den totala energiförbrukningen och förbättrar nätverkets livslängd med 7,47 gånger i en WSN med 4 datainsamlingspunkter och 300 sensornoder.
Sink-baserad centraliserad överföring schemaläggning (SC-Sched) Ref integrerar asymmetrisk kommunikation och väcka radio.
4,931,221
Energy-Efficient Data Collection Method for Sensor Networks by Integrating Asymmetric Communication and Wake-Up Radio
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Computer Science', 'Medicine']}
83,220
Domänanpassning är en av de mest utmanande uppgifterna för modern dataanalys. Om anpassningen görs korrekt blir modeller som bygger på en specifik datarepresentation mer robusta när de konfronteras med data som avbildar samma klasser, men som beskrivs av ett annat observationssystem. Bland de många strategier som föreslås, att hitta domän-invarianta representationer har visat utmärkta egenskaper, särskilt eftersom det gör det möjligt att träna en unik klassificering effektiv inom alla områden. I detta dokument föreslår vi en legaliserad oövervakad optimal transportmodell för att utföra anpassningen av representationerna i käll- och måldomänerna. Vi lär oss en transportplan som matchar båda PDF-filerna, vilket begränsar märkta prover av samma klass i källdomänen att hålla sig nära under transporten. På så sätt utnyttjar vi samtidigt de märkta proverna i källan och de distributioner som observerats i båda domänerna. Experiment på leksak och utmanande verkliga visuella anpassning exempel visar intresset för metoden, som konsekvent överträffar state of the art tillvägagångssätt. Dessutom visar numeriska experiment att vårt tillvägagångssätt leder till bättre resultat på domäninvarianta djupinlärningsfunktioner och kan enkelt anpassas till det halvövervakade fallet där få märkta prover finns tillgängliga i måldomänen.
När det gäller domänanpassning, Courty et al. i REF först lära sig en transportplan som matchar käll- och målprover med klassens regelbundenhet.
13,347,901
Optimal Transport for Domain Adaptation
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
83,221
Generell generering och manipulation av text är utmanande och har begränsad framgång jämfört med den senaste tidens djupa generativa modellering inom visuell domän. Detta dokument syftar till att generera rimliga text meningar, vars attribut kontrolleras genom att lära löses upp latenta representationer med utsedda semantik. Vi föreslår en ny neural generative modell som kombinerar variationella auto-encoders (VAEs) och holistiska attribut discriminators för effektiv införande av semantiska strukturer. Modellen kan alternativt ses som att förbättra VAE med wake-sömn-algoritmen för att utnyttja falska prover som extra träningsdata. Med differentierad approximation till diskreta textprover, tydliga begränsningar av oberoende attributkontroller, och effektivt samarbete lärande av generator och discriminatorer, vår modell lär sig tolkningsbara representationer från även bara ord annoteringar, och producerar meningar med önskade egenskaper av känsla och tempus. Kvantitativa experiment där utbildade klassificeringsgrundare används som utvärderare validerar noggrannheten hos generering av korta meningar och attribut.
REF syftar till att generera meningar med kontrollerbara attribut genom att lära sig olika representationer.
20,981,275
Toward Controlled Generation of Text
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,222
Vi föreslår en stokastisk modell för spridning av ämnen in i ett socialt nätverk modellerad av en Watts-Strogatz graf. Vår modell sätter i gång en implicit konkurrens mellan dessa ämnen som de vies för uppmärksamhet av användare i nätverket. Dynamiken i vår modell är baserad på föreställningar tagna från verkliga OSNs som Twitter där användare antingen anta ett exogent ämne eller kopiera ämnen från sina grannar som leder till endogen förökning. När omedelbart korrekt, modellen uppnår en viral regim där några ämnen samla ovanligt bra svar från nätverket, nära efterlikna beteendet hos verkliga OSNs. Vårt huvudsakliga bidrag är vår beskrivning av hur kluster av proximata användare som har talat om ämnet slå samman för att bilda en stor gigantisk komponent gör ett ämne gå viral. Detta visar att det inte är svaga band utan faktiskt starka band som spelar en stor roll för viraliteten. Vi validerar ytterligare vår modell och våra hypoteser om dess beteende genom att jämföra våra simuleringsresultat med resultaten av en mätningsstudie som genomförts på riktiga data tagna från Twitter.
Rajyalakshmi m.fl. I Ref föreslogs en stokastisk modell för spridning av flera ämnen.
17,837,322
Topic Diffusion and Emergence of Virality in Social Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']}
83,223
För generaliserade Reed-Solomon-koder har det bevisats [6] att problemet med att avgöra om ett mottaget ord är ett djupt hål är co-NP-komplett. Minskningen beror på det faktum att uppsättningen utvärdering av koden kan vara exponentiellt i längden på den kod - en egenskap som praktiska koder vanligtvis inte har. I detta dokument lade vi först fram ett mycket enklare bevis på samma resultat. Vi överväger sedan problemet med vanliga Reed-Solomon-koder, dvs. Utvärderingsuppsättningen består av alla icke-nollelement på fältet. Vi minskar problemet med att identifiera djupa hål till att avgöra om en absolut oreducerbar hyperyta över ett ändligt fält innehåller en rationell punkt vars koordinater är parvis distinkta och icke-noll. Genom att tillämpa Schmidt och Cafure-Matera uppskattningen av rationella punkter på algebraiska sorter, Vi bevisar att den mottagna vektorn (f (α)) α och Fq för Reed-Solomon [q, k] q, k < q 1/7 till, kan inte vara ett djupt hål, när f (x) är ett polynom av grad k + d för 1 ≤ d < q 3/13 till.
Till exempel antog Cheng och Murray REF följande fullständiga klassificering av djupa hål för standard Reed-Solomon-koder.
11,358,303
On Deciding Deep Holes of Reed-Solomon Codes
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,224
Deep Neural Networks (DNN) är kraftfulla modeller som har uppnått utmärkta resultat på svåra inlärningsuppgifter. Även om DNN fungerar bra när stora märkta träningsset finns tillgängliga, kan de inte användas för att kartlägga sekvenser till sekvenser. I detta dokument presenterar vi en allmän end-to-end strategi för sekvensinlärning som gör minimala antaganden om sekvensstrukturen. Vår metod använder en flerskiktad Long Short-Term Memory (LSTM) för att kartlägga indatasekvensen till en vektor av en fast dimensionalitet, och sedan ytterligare en djup LSTM för att avkoda målsekvensen från vektorn. Vårt huvudsakliga resultat är att på en engelsk till fransk översättning uppgift från WMT-14 dataset, de översättningar som produceras av LSTM uppnå en BLEU-poäng på 34.8 på hela testet, där LSTM: s BLEU-poäng straffades på out-of-vokabulary ord. Dessutom hade LSTM inga svårigheter med långa meningar. Som jämförelse uppnår ett frasbaserat SMT-system en BLEU-poäng på 33,3 på samma datauppsättning. När vi använde LSTM för att omvärdera de 1000 hypoteser som producerades av det tidigare nämnda SMT-systemet, ökar BLEU-poängen till 36,5, vilket är nära den senaste tekniken. LSTM lärde sig också förnuftiga uttryck och meningsrepresentationer som är känsliga för ordordning och är relativt invarianta för den aktiva och passiva rösten. Slutligen fann vi att vända ordningen av orden i alla käll meningar (men inte mål meningar) förbättrade LSTM: s prestanda markant, eftersom det införde så många kortsiktiga beroenden mellan källan och mål mening som gjorde optimeringsproblemet lättare.
Dessa metoder är inspirerade av sekvens-till-sekvens kodare-dekoder modeller som dominerar i maskinöversättning nuförtiden REF.
7,961,699
Sequence to Sequence Learning with Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,225
Abstract-Opportunistiska nätverk gör det möjligt för användare att kommunicera i avsaknad av nätinfrastruktur. Men att vidarebefordra meddelanden i ett sådant nätverk medför kostnader för noder när det gäller energi och lagring. Detta kan leda till noder är själviska och inte vidarebefordra meddelanden för andra noder, vilket resulterar i försämrad nätverksprestanda. I detta dokument presenteras en ny stimulansmekanism för opportunistiska nätverk som använder redan befintlig information från sociala nätverk för att upptäcka och bestraffa själviska noder och som uppmuntrar dem att delta i nätverket. Spårbaserade simuleringar visar att vår mekanism fungerar bättre än befintliga mekanismer, och att information om sociala nätverk också kan användas för att förbättra befintliga incitamentsmekanismer.
För att lösa problemet med nätprestandanedbrytning som orsakas av oviljan hos själviska noder i nätverket att vidarebefordra meddelanden, har Bigwood och Henderson REF föreslagit en incitamentsmekanism för opportunistiska nätverk som heter IRONMAN (incitament och rykte för opportunistiska nätverk som använder sociala nätverk) för att uppmuntra användare att delta i meddelande vidarebefordring för att förbättra nätverksprestanda.
14,592,126
IRONMAN: Using Social Networks to Add Incentives and Reputation to Opportunistic Networks
{'venue': "2011 IEEE Third Int'l Conference on Privacy, Security, Risk and Trust and 2011 IEEE Third Int'l Conference on Social Computing", 'journal': "2011 IEEE Third Int'l Conference on Privacy, Security, Risk and Trust and 2011 IEEE Third Int'l Conference on Social Computing", 'mag_field_of_study': ['Computer Science']}
83,226
En av de viktigaste teknikerna för trådlösa nätverk (WBAN) är routing-tekniken. För effektiv routing i WBANs, olika nätverk verksamhet såsom livslängd förlängning och energieffektivitet måste beaktas. Organets egenskaper fungerar dock som de viktigaste förvaltningselementen för en stabil drift och för att garantera en effektiv förvaltning av WBAN. Därför, i denna studie, ett routing protokoll, även energiförbrukning och backside routing, föreslås och utformas för stabil drift av WBANs; den överväger även energiförbrukning för livstid förlängning av nätet och väg förlust av noden som finns på baksidan av kroppen. För denna studie analyseras mobil-atteppt (M-atteppt) som en ny routingteknik, och en förbättrad algoritm föreslås. Slutligen har det föreslagna protokollets förträfflighet bevisats genom en rad olika experiment. Resultaten visar på en betydande förbättring jämfört med tidigare routingtekniker när det gäller nätets livslängd, genomströmning och restenergi.
Författare i REF föreslår en jämn energiförbrukning och baksida routing för WBANs i syfte att förbättra nätverkets livslängd, sannolikheten för framgångsrik överföring, och att stödja posturala kroppsrörelser.
42,648,651
Even energy consumption and backside routing: An improved routing protocol for effective data transmission in wireless body area networks
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
83,227
I detta dokument presenteras Deep Convolution Inverse Graphics Network (DC-IGN) som syftar till att lära sig en tolkningsbar representation av bilder som är lösliga med avseende på olika omvandlingar såsom rotationer utanför planet, ljusvariationer och textur. DC-IGN modellen består av flera lager av convolution och de-konvolution operatörer och utbildas med hjälp av Stochastic Gradient Variaration Bayes (SGVB) algoritm [12]. Vi föreslår träning förfaranden för att uppmuntra neuroner i grafikkodskiktet att ha semantisk betydelse och tvinga varje grupp att tydligt representera en specifik omvandling (pose,light,texture, shape etc.). Med en statisk ansiktsbild kan vår modell återskapa indatabilden med olika pose, belysning eller till och med textur och formvariationer från undersidan. Vi presenterar kvalitativa och kvantitativa resultat av modellens effektivitet för att lära sig en 3D-renderingsmotor. Dessutom använder vi oss också av den inlärda representationen för två viktiga visuella igenkänningsuppgifter: 1) en invariant ansiktsigenkänningsuppgift och 2) att använda representationen som en sammanfattande statistik för generativ modellering.
Kulkarni m.fl. föreslog Deep Convolutional Inverse Graphics Network (DC-IGN) utbildad med hjälp av Stochastic Gradient Variative Bayes REF.
14,020,873
Deep Convolutional Inverse Graphics Network
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,228
Formella ramar för kostnadsanalys av program har studerats i stor utsträckning i den unary inställningen och, i begränsad utsträckning, i relationsinställningen. Många av dessa ramar fokuserar dock bara på kostnadsaspekten, till stor del sidoorienterade funktionella egenskaper som ofta är en förutsättning för kostnadsanalys, vilket lämnar många intressanta program utanför deras verksamhetsområde. I detta papper visar vi att eleganta, enkla, expressiva bevissystem som kombinerar kostnadsanalys och funktionella egenskaper kan byggas genom att kombinera redan kända ingredienser: högre-order finesser och kostnadsmonader. Specifikt, vi härleda två syntax-directed proof systems, U C och R C, för unary och relationell kostnadsanalys, genom att lägga till en kostnad monad till en (syntax-directed) logik av högre-order program. Vi studerar metateorin av systemen, visar att flera icke-triviala exempel kan verifieras i dem, och bevisar att befintliga ramar för kostnadsanalys (RelCost och RAML) kan inbäddas i dem.
REF utvecklar teoretiska ramar för en enhetlig och relationell kostnadsanalys som genomförs i RHOL.
27,657,274
Monadic refinements for relational cost analysis
{'venue': 'PACMPL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,229
Vi tränade ett stort, djupt konvolutionellt neuralt nätverk för att klassificera 1,2 miljoner högupplösta bilder i tävlingen ImageNet LSVRC-2010 i 1000 olika klasser. När det gäller testdata uppnådde vi topp 1- och topp 5-felfrekvenser på 37,5 % respektive 17,0 %, vilket är betydligt bättre än den senaste tekniken. Det neurala nätverket, som har 60 miljoner parametrar och 650.000 neuroner, består av fem konvolutionella lager, varav några följs av max-pooling lager, och tre helt anslutna lager med en slutlig 1000-vägs softmax. För att göra träningen snabbare använde vi icke mättande nervceller och en mycket effektiv GPU-implementering av konvolutionsoperationen. För att minska övermonteringen i de helt sammankopplade skikten använde vi en nyligen utvecklad legaliseringsmetod kallad "dropout" som visade sig vara mycket effektiv. Vi gick också in i en variant av denna modell i ILSVRC-2012 tävlingen och uppnådde en vinnande topp-5 test felfrekvens på 15,3%, jämfört med 26,2% uppnås genom den näst bästa posten.
SuperVision-teamet gjorde ett betydande genombrott i ILSVRC 2012, där de tränade ett djupt konvolutionellt neuralt nätverk med 60 miljoner parametrar med hjälp av en effektiv GPU implementation REF.
207,763,512
ImageNet classification with deep convolutional neural networks
{'venue': 'CACM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,230
I takt med att datacenter blir allt mer centrala inom Internetkommunikation har både forsknings- och verksamhetsgemenskaper börjat undersöka hur man bättre kan utforma och hantera dem. I detta dokument presenterar vi en preliminär empirisk studie av end-to-end trafikmönster i datacenter nätverk som kan informera och hjälpa till att utvärdera forskning och operativa strategier. Vi analyserar SNMP-loggar som samlats in vid 19 datacenter för att undersöka tids- och rumsliga variationer i länkbelastningar och förluster. Vi finner att medan länkar i kärnan är kraftigt utnyttjade de närmare kanten observerar en större grad av förlust. Vi studerar sedan paket spår som samlats in vid ett litet antal växlar i ett datacenter och hitta bevis för ON-OFF trafikbeteende. Slutligen utvecklar vi ett ramverk som härleder ON-OFF trafikparametrar för datacenter trafikkällor som bäst förklarar de SNMP data som samlats in för datacenter. Vi visar att ramverket kan användas för att utvärdera datacenter trafik engineering. Vi tillämpar också ramverket för att designa trafikgeneratorer på nätverksnivå för datacenter.
I REF analyserar författarna end-to-end trafikmönster i datacenternätverk, och undersöker tidsmässiga och rumsliga variationer i länkbelastningar och förluster.
7,463,742
Understanding data center traffic characteristics
{'venue': 'CCRV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,231
Sammanfattning av denna webbsida: Human Activity Recognition (HAR) syftar till att identifiera de åtgärder som utförs av människor med hjälp av signaler som samlats in från olika sensorer inbäddade i mobila enheter. Under de senaste åren har djupinlärningstekniken ytterligare förbättrat HAR-prestandan på flera referensdatauppsättningar. I detta dokument föreslår vi endimensionella Convolutional Neural Network (1D CNN) för HAR som använder sig av en splitter- och erövra-baserad klassificeringsutbildning i kombination med testdatavässning. Vår strategi utnyttjar en två-stegs lärande av flera 1D CNN-modeller; vi bygger först en binär klassificerare för att känna igen abstrakta aktiviteter, och sedan bygga två flerklassiga 1D CNN-modeller för att känna igen enskilda aktiviteter. Vi inför sedan testdata skärpning under förutsägelsefasen för att ytterligare förbättra aktivitetsigenkänningsnoggrannheten. Även om det har gjorts många undersökningar för att undersöka fördelarna med denoisering av aktivitetssignaler för HAR, har få undersökningar undersökt effekten av testdatas skärpning för HAR. Vi utvärderar effektiviteten av vår strategi på två populära HAR-riktmärke dataset, och visar att vår strategi överträffar både två steg 1D CNN-enbart metoden och andra toppmoderna metoder.
I REF antas det endimensionella Convolutional Neural Network(1D-CNN) för erkännande av verksamheten.
4,613,379
Divide and Conquer-Based 1D CNN Human Activity Recognition Using Test Data Sharpening †
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']}
83,232
Abstract-I den verkliga världen skulle företag publicera sociala nätverk till en tredje part, t.ex. en molntjänstleverantör, av marknadsföringsskäl. Att bevara integriteten vid publicering av data från sociala nätverk blir en viktig fråga. I den här artikeln identifierar vi en ny typ av integritetsattack, som kallas 1*-grannskapsattack. Vi antar att en angripare har kunskap om graden av ett måls en-hop grannar, förutom målets 1-grannskap graf, som består av en-hop grannar målet och relationerna mellan dessa grannar. Med denna information kan en angripare identifiera målet från ett socialt k-anonymitetsnätverk med en sannolikhet högre än 1/k, där nodens 1-grannars graf är isomorfisk med k- 1 andra noders grafer. För att motstå 1*-grannskap attack, definierar vi en viktig integritet egendom, sannolikhet oskiljaktighet, för ett outsourcat socialt nätverk, och föreslår en heuristisk oskiljaktig grupp anonymisering (HIGA) system för att generera en anonymiserad sociala nätverk med denna integritet. Den empiriska studien visar att de anonymiserade sociala nätverken fortfarande kan användas för att svara på aggregerade frågor med hög noggrannhet.
Wang m.fl. REF definierade en viktig sekretess egenskap som kallas sannolikhet oskiljaktighet att motstå 1 * − Grannskap attack, och de föreslog också en Heuristic Indistinguishable Group Anonymization (HIGA) system för att generera en anonymiserad sociala nätverk baserat på denna integritet egendom.
13,783,620
Outsourcing privacy-preserving social networks to a cloud
{'venue': '2013 Proceedings IEEE INFOCOM', 'journal': '2013 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
83,233