src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
: Översikt över vår strategi för att formulera 3D human pose uppskattning. Röda rutor anger den valda komponenten. Pictorial struktur modeller är de facto standard för 2D human pose uppskattning. Många förbättringar och förbättringar har föreslagits, t.ex. diskriminativt utbildade kroppsdelsdetektorer, flexibla kroppsmodeller och lokala och globala blandningar. Även om dessa tekniker gör det möjligt att uppnå state-of-the-art prestanda för 2D pose estimering, har de ännu inte utökats för att möjliggöra pose estimering i 3D, istället är detta problem traditionellt behandlas med 3D-kroppsmodeller och innebär komplexa slutsatser i ett högdimensionellt utrymme av 3D-kroppskonfigurationer. Vi formulerar den artikulerade 3D-människan utgör estimeringsproblem som en gemensam slutsats över uppsättningen av 2D-projektioner av pose i var och en av kameravyerna. Som ett första bidrag till detta dokument föreslår vi en 2D pose estimation approach som utökar den senaste 2D-bildstrukturmodellen [6] med flexibla delar, färgdrag, multimodala parvisa termer och blandningar av bildstrukturer. Den andra och viktigaste bidrag är att utvidga denna 2D pose estimation modell till en multi-view modell som utför gemensamma resonemang över människor poserar sett från flera perspektiv. Utgången av denna nya modell används sedan för att återställa 3D pose. Vi utvärderar vår multi-view bildstrukturer modell på HumanEva-I [8] och MPII matlagning [7] dataset. I jämförelse med relaterat arbete för 3D pose estimation uppnår vårt tillvägagångssätt liknande eller bättre resultat samtidigt som vi endast arbetar på enkelramar och inte förlitar oss på aktivitetsspecifika rörelsemodeller eller spårning. Framför allt överträffar vårt tillvägagångssätt den senaste tekniken för aktiviteter med mer komplexa rörelser. Single-view modell: Den bildstrukturer modell, ursprungligen infördes i [2, 3], representerar människokroppen som en konfiguration L = {l 1,. .., l N } av N stela delar och en uppsättning parvis del förhållanden E. Bilden läge och absolut orientering för varje del ges av l i = (x i, y i, I ). Vi formulerar modellen som ett villkorat slumpmässigt fält, och antar att sannolikheten för den del konfiguration L med tanke på bilden bevis I factorizes till en produkt av unary och parwise termer: Delsannolikhet termer f n (l n ; I) representeras med boostrade del detektorer som förlitar sig på kodning av bilden med hjälp av ett tätt beräknat rutnät av form kontext deskriptorer [1]. Vi konkateterar dessa formkontextfunktioner med färgfunktioner och lär oss en boostrad deldetektor ovanpå denna kombinerade representation. Observera att augumenting form information med färgen gör det möjligt för oss att automatiskt lära sig den relativa betydelsen av båda funktionerna i den del detektion skede. De pairwise termer f i j (l i, l j ) som kodar de rumsliga begränsningarna mellan delar traditionellt modelleras med Gaussian fördelning i det omvandlade utrymmet för den gemensamma mellan två delar. Vi utökar vår modell genom att införa blandningsmodeller på samma nivå som dessa parvisa delberoenden. Därför ersätter vi unimodal Gaussian med termen som maximerar över flera lägen och representerar varje läge med en Gaussian. Efter [4, 5] utvidgar vi vår inställning till en blandning av bildstrukturer modeller. Vi får blandningskomponenterna genom att samla träningsdata med k-medel och lära oss en separat modell för varje kluster. Komponenterna motsvarar normalt viktiga lägen i data, t.ex. olika perspektiv på personen med avseende på kameran. Komponentens index behandlas som en latent variabel som ska härledas vid provningstidpunkten. Vi väljer den bästa komponenten med minimal osäkerhet i den marginella bakre fördelningen av kroppsdelarna. I våra experiment fungerade detta tillvägagångssätt något bättre jämfört med en tränad holistisk klassificering som skiljer blandningskomponenten baserat på innehållet i den person som avgränsar boxen. Multi-view modell: För att utnyttja multi-view information vi augument modellen med utseende och rumsliga korrespondens begränsningar över vyer. För att uppskatta 3D pose fortsätter vi i två steg. I det första steget drar vi gemensamt slutsatsen om 2D-projektionerna av 3D-karosslederna genom att utnyttja multi-view-begränsningar. I det andra steget återvinner vi 3D-posen genom triangulering av de beräknade 2D-projektionerna. För enkelhetens skull beskriver vi vår multi-view modell för två vyer. För bild m, låt oss beteckna 2D kropp konfiguration som L m och bild bevis som I m. Enligt Eq. 1 den enda-vy faktorer f (L 1 ; I 1 ) och f (L 2 ; I 2 ) som representerar den villkorliga bakre över kroppens konfigurationer bryts ner till en produkt av unary och pairwise termer som definierar utseende och rumsliga begränsningar mellan delar självständigt för varje vy. Den gemensamma bakre över konfigurationer i båda vyerna ges av p(L 1, L 2 och I 1,
Vissa metoder för att ta itu med detta problem finns redan: REF föreslår en multi-view bildstrukturalgoritm som leder till en 3D-modell av personen.
8,474,682
Multi-view Pictorial Structures for 3D Human Pose Estimation
{'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,928
I detta dokument behandlas följande tre ämnen: positiva semidefinita (psd) matriskompletteringar, universell stelhet i ramverk och Strong Arnold Property (SAP). Vi visar några starka kopplingar bland dessa ämnen, med semidefinit programmering som enande tema. Vårt huvudsakliga bidrag är ett tillräckligt villkor för att bygga partiella psd matriser som medger en unik komplettering till en fullständig psd matris. Sådana partiella matriser är ett viktigt verktyg i studien av gramdimensionen gd(G) i en graf G, en nyligen undersökt grafparameter relaterad till det låga psd-matriskompletteringsproblemet. Dessutom får vi ett elementärt bevis på Connellys tillräckliga villkor för universell stelhet i spända ramar och vi undersöker kopplingarna mellan dessa två tillräckliga förhållanden. Vi ger också en geometrisk karakterisering av psd matriser som uppfyller Strong Arnold Property i termer av nondegeneracy av en associerad semidefinite program, som vi använder för att etablera några kopplingar mellan gramdimensionen gd(·) och Colin de Verdière typ graf parameter v = (·).
Med hjälp av resultat från REF kan vi formulera om vårt nödvändiga och tillräckliga villkor för allmän fullständighet av LEFs i termer av Strong Arnold Property (jfr.
3,578,508
Positive Semidefinite Matrix Completion, Universal Rigidity and the Strong Arnold Property
{'venue': None, 'journal': 'arXiv: Optimization and Control', 'mag_field_of_study': ['Mathematics']}
82,929
Sändning är en gemensam verksamhet i ett nätverk för att lösa många problem. I synnerhet i ett mobilt ad hoc-nätverk (MANET) förväntas sådan verksamhet utföras oftare på grund av värdrörlighet (t.ex. genom att hitta en rutt till en viss värd, söka efter en viss värd och skicka en larmsignal). Eftersom radiosignaler sannolikt kommer att överlappa andra i ett geografiskt område, är det vanligtvis mycket kostsamt att sända genom översvämningar och det kommer att leda till allvarliga redundanser, stridigheter och kollisioner, som vi kallar problemet med stormen. I detta dokument identifierar vi detta problem genom att visa hur allvarligt det är genom analyser och simuleringar. Vi föreslår flera system för att minska överflödiga återsändningar och differentiera tidpunkten för omsändningar för att lindra detta problem. Simuleringsresultat presenteras som visar olika nivåer av förbättringar jämfört med den grundläggande översvämningsmetoden.
Översvämningar tillvägagångssätt är kostsamt och kan orsaka ett allvarligt problem som kallas utsändning storm problem som identifierades i REF.
7,914,832
The broadcast storm problem in a mobile ad hoc network
{'venue': "MobiCom '99", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,930
Wireless communication Abstract- Vehicle-to- vehicle (VTV) har många tänkt sig tillämpningar för trafiksäkerhet och undvikande av överbelastning, men utvecklingen av lämpliga kommunikationssystem och standarder kräver noggranna modeller för VTV-utbredningskanalen. I det här dokumentet presenterar vi en ny bredbandsmodell för multi-input-multiple-output (MIMO) för VTV-kanaler baserade på omfattande MIMO-kanalmätningar utförda på 5,2 GHz i motorvägs- och landsbygdsmiljöer i Lund. De uppmätta kanalegenskaperna, särskilt kanalstatistikens icke-stationaritet, motiverar användningen av en geometribaserad stokastisk kanalmodell (GSCM) i stället för den klassiska avlyssnade linjemodellen. Vi introducerar generaliseringar av den generiska GSCM-metoden och tekniker för att parameterisera den från mätningar och finner den lämplig att skilja mellan diffusa och diskreta spridningsbidrag. Det tidsvarianta bidraget från diskreta spridare spåras över tid och fördröjning med hjälp av en högupplösningsalgoritm, och våra observationer motiverar att deras kraft modelleras som en kombination av ett (deterministiskt) avståndsfall och en långsamt varierande stokastisk process. Papperet ger en fullständig parameterisering av kanalmodellen och tillhandahåller ett genomföranderecept för simuleringar. Modellen verifieras genom jämförelse av MIMO antenn korrelationer som härrör från kanalmodellen till de som erhålls direkt från mätningarna.
På samma sätt föreslogs en bredbandsmodell för flera input-multiple-output-modell REF, som bygger på omfattande mätningar som utförs i förorts- och motorvägsscenario med hjälp av 5,2 GHz-frekvensband.
9,184,950
A geometry-based stochastic MIMO model for vehicle-to-vehicle communications
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,932
Vi presenterar YOLO, ett nytt sätt att upptäcka föremål. Tidigare arbete på objekt detektion repurposes klassificerar för att utföra detektion. Istället ramar vi in objektdetektion som ett regressionsproblem till rumsligt separerade avgränsande rutor och tillhörande klasssannolikheter. Ett enda neuralt nätverk förutspår avgränsande lådor och klass sannolikheter direkt från fullständiga bilder i en utvärdering. Eftersom hela detektionsledningen är ett enda nätverk, kan den optimeras end-to-end direkt vid detektionsprestanda. Vår enade arkitektur är extremt snabb. Vår bas YOLO-modell behandlar bilder i realtid med 45 bilder per sekund. En mindre version av nätverket, Fast YOLO, bearbetar en häpnadsväckande 155 ramar per sekund samtidigt som man uppnår dubbelt mAP för andra realtidsdetektorer. Jämfört med toppmoderna detektionssystem gör YOLO fler lokaliseringsfel men är mindre sannolikt att förutsäga falska positiva på bakgrunden. Slutligen, YOLO lär sig mycket allmänna representationer av objekt. Den överträffar andra detektionsmetoder, inklusive DPM och R-CNN, när den generaliserar från naturliga bilder till andra domäner som konstverk.
YOLO REF formulerar skickligt objektdetektering som en regressionsuppgift, vilket leder till mycket effektiva detektionssystem.
206,594,738
You Only Look Once: Unified, Real-Time Object Detection
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,933
Samarbete maskininlärning och relaterade tekniker såsom federerat lärande gör det möjligt för flera deltagare, var och en med sin egen utbildning dataset, att bygga en gemensam modell genom att träna lokalt och regelbundet utbyta modelluppdateringar. Vi visar att dessa uppdateringar läcker oavsiktlig information om deltagarnas träningsdata och utvecklar passiva och aktiva inferensattacker för att utnyttja detta läckage. För det första visar vi att en kontradiktorisk deltagare kan dra slutsatsen att det finns exakta datapunkter, t.ex. specifika platser-i andras utbildningsdata (dvs. medlemsslutsatser). Sedan visar vi hur denna motståndare kan dra slutsatser egenskaper som endast rymmer en delmängd av träningsdata och är oberoende av de egenskaper som den gemensamma modellen syftar till att fånga. Till exempel kan han dra slutsatsen när en viss person först visas i de bilder som används för att träna en binär kön klassificerare. Vi utvärderar våra attacker på en mängd olika uppgifter, dataset, och lärande konfigurationer, analysera deras begränsningar, och diskutera möjliga försvar.
Melis m.fl. REF utnyttjade medlemskap och egendom inference attacker för att avslöja funktioner i klienternas utbildningsdata från modelluppdateringar.
53,099,247
Exploiting Unintended Feature Leakage in Collaborative Learning
{'venue': '2019 IEEE Symposium on Security and Privacy (SP)', 'journal': '2019 IEEE Symposium on Security and Privacy (SP)', 'mag_field_of_study': ['Computer Science']}
82,934
Vi presenterar CROSSGRAD, en metod för att använda multi-domän utbildningsdata för att lära sig en klassificering som generaliserar till nya domäner. CROSSGRAD behöver inte en anpassningsfas via märkta eller omärkta data, eller domänfunktioner i den nya domänen. De flesta befintliga domänanpassningsmetoder försöker radera domänsignaler med hjälp av tekniker som domänadversarieträning. Däremot är CROSSGRAD fritt att använda domänsignaler för att förutsäga etiketter, om det kan förhindra överutrustning på utbildningsdomäner. Vi konceptualiserar uppgiften i en Bayesiansk inställning, där ett provtagningssteg implementeras som dataförstärkning, baserat på domänstyrda perturbationer av inmatningsinstanser. CROSSGRAD tränar parallellt en etikett och en domänklassificering på exempel som störs av förlustgradienter av varandras mål. Detta gör det möjligt för oss att direkt störa ingångar, utan att separera och omblanda domänsignaler samtidigt som vi gör olika fördelningsantaganden. Empirisk utvärdering av tre olika tillämpningar där denna inställning är naturlig fastställer att (1) domänstyrd perturbering ger konsekvent bättre generalisering till osynliga domäner, jämfört med generiska perturberingsmetoder, och att (2) dataförstärkning är en stabilare och mer exakt metod än domänadversarial utbildning.
En metod, som kallas CROSSGRAD REF, har nyligen föreslagits att sluta sig till domänspecifika modeller som generaliserar till osynliga domäner genom att använda domänsignaler utan semantiska deskriptorer.
13,754,527
Generalizing Across Domains via Cross-Gradient Training
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,935
Problemet med att minska informationens ålder har studerats ingående i enhop-nätverk. I den här artikeln minimerar vi ålder-av-informationen i allmänna multihop nätverk. Om paketöverföringstiderna över nätverkslänkarna är exponentiellt fördelade, visar vi att en förebyggande Last Generated First Served (LGFS) policy resulterar i mindre åldersprocesser vid alla noder av nätverket (i en stokastisk beställning betydelse) än någon annan kausal policy. Dessutom, för godtyckliga fördelningar av paketöverföringstider, visas den icke-förebyggande LGFS-policyn att minimera åldersprocesserna vid alla noder bland alla icke-förebyggande arbetsbevarande strategier (igen i en stokastisk beställnings mening). Det är förvånande att en sådan enkel politik kan uppnå optimal fördelning av åldersprocesserna vid alla noder även under godtyckliga nätverkstopologier, samt godtyckliga paketgenererings- och ankomsttider. Dessa optimala resultat håller inte bara för åldersprocesserna, utan också för alla icke-minskande funktion av åldersprocesserna. • Vi anser att ett allmänt multihop-nätverk där uppdateringspaketen inte nödvändigtvis kommer fram till gatewaynoden i den ordning som deras generationstid är. Vi bevisar att om paketöverföringstiderna över nätverkslänkarna är exponentiellt fördelade, då för godtycklig ankomstprocess, nätverk topologi och buffertstorlekar, minimerar den förebyggande LGFS-policyn åldersprocesserna vid alla noder i
Särskilt, Bedewy et al. REF beaktade multihop-nätverken med en extern källa, och visade att bland alla orsakssambandspolitik, den förebyggande senast genererade första-served (LGFS) politik och icke-förebyggande LGFS politik minimerade åldersprocesser vid alla noder för exponentiellt distribuerade och allmänt distribuerade paket överföringstider, respektive.
782,212
Age-optimal information updates in multihop networks
{'venue': '2017 IEEE International Symposium on Information Theory (ISIT)', 'journal': '2017 IEEE International Symposium on Information Theory (ISIT)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,936
Vi introducerar en ny språklig representationsmodell kallad BERT, som står för dubbelriktade Encoder Representationer från Transformers. Till skillnad från senaste språk representation modeller (Peters et al., 2018; Radford et al., 2018), BERT är utformad för att pre-training djupa dubbelriktade representationer genom att gemensamt konditionering på både vänster och höger sammanhang i alla lager. Som ett resultat, kan de förtränade BERT representationer finjusteras med bara ett ytterligare utdatalager för att skapa state-of-theart modeller för ett brett spektrum av uppgifter, såsom frågesvar och språk inference, utan betydande uppgiftsspecifika arkitekturändringar. BERT är konceptuellt enkelt och empiriskt kraftfullt. Det får nya state-of-the-art resultat på elva naturliga språk bearbetningsuppgifter, inklusive att driva GLUE-riktmärket till 80,4 % (7,6 % absolut förbättring), MultiNLI noggrannhet till 86,7 % (5,6 % absolut förbättring) och SQuAD v1.1 frågesvar Test F1 till 93,2 (1,5 absolut förbättring), presterande mänskliga prestanda med 2,0.
Dubbelriktade Encoder Representationer från Transformers (BERT) är en nyligen föreslagen modell som är förträngd på en enorm datauppsättning och kan finjusteras för en specifik uppgift, inklusive Namned Entity Recognition (NER), som överträffar de flesta av de senaste resultaten i flera NLP uppgifter REF.
52,967,399
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,937
Vårt mål i denna tidning är att upptäcka nära duplicerade mönster i stora samlingar av konstverk. Detta är svårare än vanlig gruvbrytning på grund av skillnader i de konstnärliga medierna (olja, pastell, teckning, etc), och brister inneboende i kopieringsprocessen. Vår viktigaste tekniska insikt är att anpassa en standard djup funktion till denna uppgift genom att finjustera den på den specifika konstsamlingen med hjälp av självövervakat lärande. Mer specifikt används rumslig överensstämmelse mellan angränsande funktionsmatcher som övervakande finjusterande signal. Den anpassade funktionen leder till mer exakt stil-invariant matchning, och kan användas med en standard upptäckt metod, baserad på geometrisk verifiering, för att identifiera dubbletter i datasetet. Metoden utvärderas på flera olika dataset och visar förvånansvärt goda kvalitativa upptäcktsresultat. För kvantitativ utvärdering av metoden, vi kommenterade 273 nära dubbletter i en datauppsättning av 1587 konstverk tillskrivs Jan Brueghel och hans workshop 1. Utöver konstverk, vi visar också förbättring på lokalisering på Oxford5K fotodataset samt på historiska fotografi lokalisering på Large Time Lags Plats (LTLL) dataset.
Nyligen lärde sig REF djupa mellannivåfunktioner för matchning över olika visuella medier (ritningar, oljemålningar, fresker, skisser, etc), och använde dem tillsammans med rumslig verifiering för att upptäcka kopierade detaljer i en datauppsättning av tusentals konstverk.
71,145,754
Discovering Visual Patterns in Art Collections With Spatially-Consistent Feature Learning
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,938
Mycket av framgången med Internet-tjänstemodellen kan tillskrivas populariteten av en klass av arbetsbelastningar som vi kallar Online Data-Intensive (OLDI) tjänster. Dessa arbetsbelastningar utför betydande databehandling över massiva datamängder per användare begäran men, till skillnad från deras offline motsvarigheter (såsom MapReduce beräkningar), de kräver lyhördhet i sub-second tid skala vid hög efterfrågan hastighet. Stora sökprodukter, onlinereklam och maskinöversättning är exempel på arbetsbelastningar i denna klass. Även om belastningen i ODI-tjänster kan variera kraftigt under dagen, ser deras energiförbrukning liten variation på grund av bristen på energiproportionalitet hos de underliggande maskinerna. Skalan och latenskänsligheten hos OLDI arbetsbelastningar gör dem också till ett utmanande mål för energihanteringstekniker. Vi undersöker vad som, om något, kan göras för att göra OLDI-systemen mer energiproportionella. Speciellt utvärderar vi tillämpligheten av aktiva och inaktiva lågeffektlägen för att minska den effekt som förbrukas av de primära serverkomponenterna (processor, minne och disk), samtidigt som snäva svarstider upprätthålls, särskilt på 95:e-percentil latens. Med hjälp av webbsökning som ett representativt exempel på denna arbetsbörda klass, vi först karakteriserar en produktion Webbsökning arbetsbelastning på kluster-omfattande skala. Vi ger en finkornig karakterisering och avslöjar möjligheten till energibesparing med hjälp av lågeffektlägen för varje primär serverkomponent. För det andra utvecklar och validerar vi en prestandamodell för att utvärdera effekten av processor- och minnesbaserade lågeffektlägen på söklatensdistributionen och överväga fördelarna med nuvarande och förutsebara lågeffektlägen. Våra resultat belyser utmaningarna i krafthanteringen för denna klass av arbetsbelastningar. I motsats till andra serverarbetsbelastningar, för vilka inaktiva lågeffektlägen har visat stort löfte, för OLDI arbetsbelastningar finner vi att energiproportionalitet med godtagbar frågelatens endast kan uppnås med hjälp av samordnade, full-system aktiva lågeffektlägen.
REF belyser unika utmaningar för låg latenta arbetsbelastningar och förespråkar fullt systemaktiva lågeffektlägen.
13,789,749
Power management of online data-intensive services
{'venue': '2011 38th Annual International Symposium on Computer Architecture (ISCA)', 'journal': '2011 38th Annual International Symposium on Computer Architecture (ISCA)', 'mag_field_of_study': ['Computer Science']}
82,939
System som extraherar strukturerad information från naturliga språk passager har varit mycket framgångsrika inom specialiserade domäner. Tiden är lämplig för att utveckla analoga tillämpningar för molekylärbiologi och genomik. Vi presenterar ett system, GENIES, som extraherar och strukturerar information om cellvägar från den biologiska litteraturen i enlighet med en kunskapsmodell som vi utvecklat tidigare. Vi implementerade GENIES genom att modifiera ett befintligt medicinskt naturligt språkbehandlingssystem, MedLEE, och genomförde en preliminär utvärderingsstudie. Våra resultat visar värdet av de underliggande teknikerna i syfte att förvärva värdefull kunskap från biologiska tidskrifter. Kontaktuppgifter:
Friedman m.fl. REF har utvecklat ett liknande system för att extrahera strukturinformation om cellulära banor med hjälp av en kunskapsmodell.
1,554,697
GENIES : a natural-language processing system for the extraction of molecular pathways from journal articles
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,940
Abstract-This paper tar upp problemet med att maximera nätverket livslängden för uppladdningsbara trådlösa Sensor Networks (WSNs) samtidigt som alla mål övervakas kontinuerligt av minst en sensor nod. Målet är att bestämma en grupp av sensornoder, och deras uppvaknande schema så att inom ett tidsintervall, en delmängd av noder är aktiva medan andra går in i vilotillståndet för att spara energi samt ladda sitt batteri. Vi föreslår en linjär programmering (LP) baserad lösning för att bestämma aktiveringsschemat för sensornoder samtidigt ge dem laddningsmöjligheter och samtidigt säkerställer fullständig måltäckning. Resultaten visar att vår LP-lösning uppnår mer än dubbelt så hög prestanda när det gäller nätverkslivslängd jämfört med liknande algoritmer som utvecklats för ändliga WSN-batterier. Men det är beräknings dyrt. Vi föreslår därför Maximum Utility Algorithm (MUA), några order av magnitud snabbare strategi som uppnår 3/4 av nätverkets livslängd som erhålls genom vår LP-lösning.
Yang och Chin REF övervägde problemet med att maximera nätverkets livslängd samtidigt som alla mål övervakas kontinuerligt av minst en sensor.
20,193,995
Novel Algorithms for Complete Targets Coverage in Energy Harvesting Wireless Sensor Networks
{'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science']}
82,941
Vi anser att problemet med att klassificera dokument inte efter ämne, utan efter allmänna känslor, t.ex. att avgöra om en granskning är positiv eller negativ. Med hjälp av filmrecensioner som data, finner vi att standard maskininlärning tekniker definitivt överträffar mänskliga-producerade baslinjer. De tre maskininlärningsmetoder vi använde (Naive Bayes, maximal entropiklassificering, och stöd vektormaskiner) fungerar dock inte lika bra på känsloklassificering som på traditionell ämnesbaserad kategorisering. Vi avslutar med att undersöka faktorer som gör känsloklassificeringsproblemet mer utmanande. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Pang m.fl. REF använde Naive Bayes, maximal entropi klassificering, och stöd vektor maskiner (SVM) metoder för att lösa problemet med känsloklassificering.
7,105,713
Thumbs Up? Sentiment Classification Using Machine Learning Techniques
{'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,942
Detta dokument presenterar en integrerad MAC och routing protokoll som kallas Delay Guaranteed Routing och MAC (DGRAM) för delay känsliga trådlösa sensor nätverk (WSN) applikationer. DGRAM är ett TDMA-baserat protokoll som är utformat för att ge deterministisk fördröjningsgaranti på ett energieffektivt sätt. Utformningen bygger på återanvändning av ankomst- och avgångstider för att minska latensen hos en nod för att få tillgång till mediet, samtidigt som fri medeltillgång garanteras. Överförings- och mottagningscyklerna av noder är noggrant beräknade så att data transporteras från källan till diskhon medan noderna kan sova vid andra tider för att spara energi. Därför är datapaketens rutter integrerade i DGRAM. Vi tillhandahåller en detaljerad design av tid slits uppdrag och fördröjning analys av protokollet. En stor fördel med DGRAM jämfört med andra TDMA-protokoll är att ankomst- och avgångstiderna görs på ett helt distribuerat sätt vilket gör DGRAM-nätverket självkonfigurerande. Vi har simulerat DGRAM med hjälp av ns2-simulatorn och jämfört resultaten med resultaten från SMAC för ett liknande nätverk. Simuleringsresultat visar att den fördröjning som datapaketen upplever alltid är mindre än den analytiska fördröjning som protokollet är utformat för. Enligt simuleringsresultaten ändras inte den genomsnittliga energiförbrukningen när händelsefrekvensen ändras och är mindre än SMAC:s. Denna egenskap hos DGRAM ger flexibilitet när det gäller att välja olika driftsparametrar utan att behöva oroa sig för energieffektivitet.
Försening garanteras routing och MC-protokoll (DEGRAM) REF föreslår en gemensam cyklisk MAC och routing protokoll, som bygger på innehållsfri TDMA.
62,105,372
DGRAM: A Delay Guaranteed Routing and MAC protocol for wireless sensor networks
{'venue': '2008 International Symposium on a World of Wireless, Mobile and Multimedia Networks', 'journal': '2008 International Symposium on a World of Wireless, Mobile and Multimedia Networks', 'mag_field_of_study': ['Computer Science']}
82,943
Att ta till sig folkmassans visdom, kan social märkning betraktas som en alternativ mekanism-i motsats till webbsökning-för att organisera och upptäcka information på webben. Effektiv taggbaserad rekommendation av information, såsom webbresurser, är en kritisk aspekt av denna mekanism för att upptäcka social information. En exakt förståelse av informationsstrukturen i de sociala märkningssystemen är kärnan i en effektiv märkningsbaserad rekommendationsmetod. Även om större delen av den befintliga forskningen antingen implicit eller explicit antar en enkel trepartsgrafstruktur för detta ändamål, föreslår vi en omfattande informationsstruktur för att fånga in alla typer av samtidig information i märkningsdata. På grundval av den föreslagna informationsstrukturen föreslår vi vidare ett enhetligt system för användarprofilering för att fullt ut utnyttja all tillgänglig information. Slutligen föreslår vi, med stöd av vår föreslagna användarprofil, en ny ram för samverkansfiltrering i sociala märkningssystem. I vårt föreslagna ramverk skapar vi först gemensamma rekommendationer om objekttag, med taggar som visar aktuella intressen för användare i målobjekt. Dessa gemensamma rekommendationer förfinas sedan av visdomen från publiken och projiceras till objektet utrymme för den slutliga punkten rekommendationer. Utvärdering med hjälp av tre verkliga datauppsättningar visar att vår föreslagna rekommendationsstrategi är betydligt bättre än den senaste tekniken.
En metod som är mycket relevant för oss är den gemensamma punkt-tag-rekommendationen REF, som först gör gemensamma punkt-tag rekommendationer och sedan projicerar dem till punkten utrymme för slutlig punkt rekommendation.
8,095,096
Collaborative filtering in social tagging systems based on joint item-tag recommendations
{'venue': "CIKM '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,944
Ett stort antal Internetbutiker gör det svårt för en kund att manuellt granska alla tillgängliga erbjudanden och välja optimala butiker för shopping. En partiell lösning på problemet är prisjämförelser som producerar prisrankningar från insamlade erbjudanden. Deras möjligheter är dock begränsade till en jämförelse av erbjudanden för en enda produkt som kunden begär. Frågan vi undersöker i detta papper är en multipel-punkt multi-shop optimering problem, där totala kostnader för en kund att köpa en viss uppsättning objekt bör minimeras över alla tillgängliga erbjudanden. I detta dokument, Internet Shopping Optimization Problem (ISOP) definieras på ett formellt sätt och ett bevis på sin starka NP-hårdhet tillhandahålls. Vi beskriver även polynomalgoritmer för speciella fall av problemet.
Dessutom är det bevisat att problemet inte är ungefärlig i polynom tid REF.
3,216,221
Internet shopping optimization problem
{'venue': 'Int. J. Appl. Math. Comput. Sci.', 'journal': 'Int. J. Appl. Math. Comput. Sci.', 'mag_field_of_study': ['Computer Science']}
82,945
Sammanfattning av denna webbsida: I den här artikeln föreslår vi matematiska optimeringsmodeller för hushållsenergienheter för att optimalt kontrollera de stora energibelastningarna i bostäder samtidigt som användarens önskemål bevaras. Användarkomforten är modellerad på ett enkelt sätt, som tar hänsyn till apparatens klass, användarens preferenser och väderförhållanden. Den vinddrivna optimeringsalgoritmen (WDO) med den objektiva funktionen komfortmaximering tillsammans med minsta elkostnad definieras och implementeras. För maximal elräkning och maximal minskning används däremot min-max ångerbaserad knapsack-algoritm (K-WDO). För att validera de föreslagna algoritmernas effektivitet utförs omfattande simuleringar för flera scenarier. Simuleringarna visar att de föreslagna algoritmerna ger de bästa optimala resultaten med en snabb konvergenshastighet jämfört med de befintliga teknikerna. Applicering. Det är Sci. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. , 5 1135
I REF föreslår författarna en teknik för att styra bostäder energibelastningar samtidigt maximera UC och minimera elräkningen.
17,816,736
An Efficient Power Scheduling Scheme for Residential Load Management in Smart Homes
{'venue': None, 'journal': 'Applied Sciences', 'mag_field_of_study': ['Engineering']}
82,946
Abstract-En omgivande RF energi skörd sensor nod med ombord avkänning och kommunikation funktionalitet utvecklades och testades. Den minsta ineffekt som krävs för sensornoddrift var -18 dBm (15,8 μW). Med hjälp av en 6 dBi mottagningsantenn visades den känsligaste RF-skördaren fungera på ett avstånd av 10,4 km från en UHF-televisionssändare på 1 MW och över 200 m från en cellulär bastransceiverstation. En komplett RF-driven prototyp konstruerades som mätte temperatur och ljusnivå och trådlöst överförde dessa mätningar.
Parker m.fl. REF visade en sensornod som skördade omgivande RF-energi från både digital-TV och cellulära radiovågor som arbetar på ett avstånd av 10,4 km från ett 1 MW UHF-televisionstorn och över 200 m från en cellulär bastransceiverstation.
47,441,324
A wireless sensing platform utilizing ambient RF energy
{'venue': '2013 IEEE Topical Conference on Biomedical Wireless Technologies, Networks, and Sensing Systems', 'journal': '2013 IEEE Topical Conference on Biomedical Wireless Technologies, Networks, and Sensing Systems', 'mag_field_of_study': ['Computer Science']}
82,947
Beräkningen för dagens intelligenta personliga assistenter som Apple Siri, Google Now och Microsoft Cortana utförs i molnet. Detta moln-enbart tillvägagångssätt kräver betydande mängder data som ska skickas till molnet över det trådlösa nätverket och sätter betydande beräkningstryck på datacenteret. Men när beräkningsresurserna i mobila enheter blir mer kraftfulla och energieffektiva uppstår frågor om huruvida denna molnbaserade behandling är önskvärd framåt, och vad är konsekvenserna av att driva en del eller alla av denna beräkning till de mobila enheterna på kanten. I detta dokument undersöker vi status quo-metoden för molnbaserad bearbetning och undersöker datadelningsstrategier som effektivt utnyttjar både cyklerna i molnet och den mobila enheten för att uppnå låg latens, låg energiförbrukning och hög datacenterkapacitet för denna klass av intelligenta applikationer. Vår studie använder 8 intelligenta applikationer som spänner över datorseende, tal, och naturliga språkdomäner, alla använder state-of-the-art Deep Neural Networks (DNNs) som kärnan maskininlärning teknik. Vi finner att med tanke på egenskaperna hos DNN-algoritmer, en finkornig, lagernivå-beräkning partitioneringsstrategi baserad på data och beräkningsvariationer för varje skikt i en DNN har betydande latens och energifördelar jämfört med status quo-metoden. Med hjälp av denna insikt designar vi Neurosurgeon, en lätt schemaläggare för att automatiskt partitionera DNN-beräkning mellan mobila enheter och datacenter vid granulariteten i neurala nätverkslager. Neurokirurg kräver inte profilering per applikation. Den anpassar sig till olika DNN-arkitekturer, hårdvaruplattformar, trådlösa nätverk och serverbelastningsnivåer, intelligent partitionera beräkning för tillstånd att göra digitala eller hårda kopior av hela eller delar av detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior bär detta meddelande och den fullständiga hänvisning på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. Att kopiera på annat sätt, eller återpublicera, att posta på servrar eller att omfördela till listor, kräver tidigare specifik behörighet och / eller en avgift. Begär tillstånd från authoritys@acm.org. bästa latens eller bästa mobila energi. Vi utvärderar neurokirurgi på en toppmodern mobil utvecklingsplattform och visar att det förbättrar end-to-end latency med 3,1× i genomsnitt och upp till 40,7×, minskar mobil energiförbrukning med 59,5% i genomsnitt och upp till 94,7%, och förbättrar datacenter genomströmning med 1,5× i genomsnitt och upp till 6,7×.
Neurosurgeon REF identifierar när det är fördelaktigt att avlasta ett DNN-lager som ska beräknas på molnet.
1,158,124
Neurosurgeon: Collaborative Intelligence Between the Cloud and Mobile Edge
{'venue': "ASPLOS '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,948
I detta arbete tar vi upp uppgiften att semantisk bildsegmentering med Deep Learning och gör tre huvudsakliga bidrag som experimentellt visas ha betydande praktiska meriter. För det första lyfter vi fram convolution med uppsamlade filter, eller "atreous convolution", som ett kraftfullt verktyg i täta förutsägelser uppgifter. Atrous convolution tillåter oss att uttryckligen kontrollera den upplösning vid vilken funktionssvar beräknas inom Deep Convolutional Neural Networks. Det gör det också möjligt för oss att effektivt utvidga synfältet för filter för att införliva större sammanhang utan att öka antalet parametrar eller mängden beräkning. För det andra föreslår vi upphetsande rumslig pyramidpooling (ASPP) för att på ett robust sätt segmentera objekt på flera skalor. ASPP sonderar ett inkommande konvolutionellt funktionsskikt med filter med flera provtagningshastigheter och effektiva synfält, vilket fångar föremål såväl som bildkontext i flera skalor. För det tredje förbättrar vi lokaliseringen av objektgränser genom att kombinera metoder från DCNN och probabilistiska grafiska modeller. Den ofta använda kombinationen av max-pooling och downsampling i DCNNs uppnår Invariance men har en vägtull på localization noggrannhet. Vi övervinner detta genom att kombinera svaren på det slutliga DCNN-skiktet med ett helt uppkopplat villkorligt Random Field (CRF), som visas både kvalitativt och kvantitativt för att förbättra lokaliseringsprestandan. Vårt föreslagna "DeepLab" system sätter den nya state-of-art vid PASCAL VOC-2012 semantiska bildsegmentering uppgift, nå 79,7 procent mIOU i testuppsättningen, och avancerar resultaten på tre andra datauppsättningar: PASCAL-Context, PASCAL-Person-Part, och Cityscapes. Alla våra koder görs allmänt tillgängliga på nätet.
DeepLab REF introducerar konvolution med upp sampled filter, attrous rumslig pyramid pooling och en CRF-baserad efterbehandling för att förbättra segmenteringsriktmärkena.
3,429,309
DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,949
Tidigare CNN-baserade video super-upplösning metoder måste anpassa flera ramar till referensen. I detta dokument visar vi att en lämplig ramanpassning och motionsersättning är avgörande för att uppnå resultat av hög kvalitet. Vi föreslår därför ett "sub-pixel motion kompensation" (SPMC) skikt i ett CNN-ramverk. Analys och experiment visar lämpligheten av detta lager i video SR. Det slutliga skalbara CNN-ramverket, end-to-end, innehåller effektivt SPMC-skiktet och säkrar flera ramar för att avslöja bilddetaljer. Vår implementering kan generera visuellt och kvantitativt högkvalitativa resultat, överlägsna aktuella state-of-the-arts, utan behov av parameterstämning.
Tao och Al. I REF infördes ett nytt skikt för rörelsekompensering (SPMC) för att utföra rörelsekompensering och uppsampling tillsammans.
3,193,713
Detail-Revealing Deep Video Super-Resolution
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
82,950
Sammanfattning Nyligen utvecklades en metod för att ta bort skuggor från färgbilder (Finlayson et al. I IEEE Trans. Mönster Anal. Mach, det är jag. Berätta. 28:59-68, 2006) som bygger på att hitta en särskild riktning i en 2D kromaticitet funktion utrymme. Denna "invariant riktning" är den för vilken särskilda färgdrag, när de projiceras in i 1D, ger en gråskalad bild som är ungefär ovariant till intensitet och färg av scenbelysning. Skuggorna, som i grund och botten är en viss typ av belysning, försvagas således kraftigt. Det huvudsakliga sättet att hitta denna speciella vinkel är en kamerakalibrering: ett färgmål avbildas under många olika ljus, och den riktning som bäst gör färglappsbilder lika över belysningen är den invarianta riktningen. Här har vi ett annat förhållningssätt. I detta arbete strävar vi istället för en kamerakalibrering efter att hitta den invarianta riktningen från bevis i själva färgbilden. Specifikt, vi inser att producera en 1D-projektion i rätt invariant riktning kommer att resultera i en 1D-fördelning av pixelvärden som har mindre entropi än projicering i fel riktning. Anledningen är att rätt projektion resulterar i en sannolikhetsfördelning spik, för pixlar alla samma utom skiljer sig från den belysning som producerade deras observerade RGB-värden och därför ligger längs en linje med orientering som är lika med den invarianta riktningen. Därför söker vi den projektion som producerar en typ av inneboende, oberoende av belysningsreflektion-information endast bild genom att minimera entropi, och därifrån gå vidare för att ta bort skuggor som tidigare. För att kunna utveckla en effektiv beskrivning av entropi-minimering uppgiften går vi över till den kvadratiska entropi, snarare än Shannon definition. Byte av observerade pixlar med en kärna densitet sannolikhetsfördelning, kan den kvadratiska entropi skrivas som en mycket enkel formulering, och kan utvärderas med hjälp av den effektiva Fast Gauss Transform. Entropin, skriven i detta förkroppsligande, har fördelen att den är mer okänslig för kvantisering än den vanliga definitionen. Den resulterande algoritmen är ganska tillförlitlig, och skuggborttagningssteget ger bra skuggfria färgbildsresultat när starka skuggkanter finns i bilden. I de flesta fall studerade, entropi har ett starkt minimum för den invarianta riktningen, avslöjar en ny egenskap bildbildning.
Skuggborttagning REF ] föreslog en metod för att upptäcka skuggor genom att återställa en endimensionell belysningsinvariant bild genom entropiminimering.
3,353,774
Entropy Minimization for Shadow Removal
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,951
Visuell objektigenkänning kräver att en bild matchas med en uppsättning modeller som lagras i minnet. I detta dokument föreslår vi en strategi för erkännande där ett 3-D-objekt representeras av den linjära kombinationen av 2-D-bilder av objektet. Om JLk 'M1.......................................................................................................... .Mk} är den uppsättning bilder som representerar ett givet objekt och P är 2-D bilden av ett objekt som ska kännas igen, då P anses vara en instans av M om P= C~=,aiMi för vissa konstanter (pi. Vi visar att detta tillvägagångssätt hanterar rätt styva 3D-transformationer av objekt med skarpa såväl som släta gränser och kan även hantera icke-rigida transformationer. Papperet är uppdelat i två delar. I den första delen visar vi att de olika vyer som skildrar samma objekt under olika omvandlingar ofta kan uttryckas som linjära kombinationer av ett litet antal vyer. I den andra delen föreslår vi hur denna linjära kombinationsegenskaper kan användas i igenkänningsprocessen. Index Terms-Alignment, linjära kombinationer, objektigenkänning, igenkänning, 3-D objektigenkänning, visuell igenkänning. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. Erkännande av Alignment V ISUAL OBJECT-igenkänning kräver att en bild matchas med en uppsättning modeller som lagras i minnet. Låt M = {Ml,. , M,} vara uppsättningen lagrade modeller och P vara bilden som ska kännas igen. I allmänhet kan det visade objektet, avbildat av P, skilja sig från alla tidigare sedda bilder av samma objekt. Det kan till exempel vara bilden av ett tredimensionellt objekt sett från en ny visningsposition. För att kompensera för dessa variationer kan vi tillåta modellerna (eller det visade objektet) att genomgå vissa kompenserande transformationer under matchningssteget. Om 7 är den uppsättning tillåtna omvandlingar, det matchande skedet kräver valet av en modell A4, E M och en omvandling T E 7, så att det visade objektet P och den omvandlade modellen TM, kommer att vara så nära som möjligt. Det allmänna systemet kallas anpassningsmetod eftersom en anpassningsomvandling tillämpas på modellen (eller på det visade objektet) före eller under matchningssteget. Ett sådant tillvägagångssätt används i [S] I detta dokument föreslår vi ett annat tillvägagångssätt, där varje modell representeras av den linjära kombinationen av 2-D-bilder av objektet. Det nya tillvägagångssättet har flera fördelar. För det första hanterar den alla stela 3-D-omvandlingar, men det är inte begränsat till sådana omvandlingar. För det andra finns det inget behov i detta system av att uttryckligen återvinna och representera objektens 3D-struktur. För det tredje är beräkningarna ofta enklare än i tidigare system. Papperet är uppdelat i två delar. I det första (avsnitt I) visar vi att de olika vyer som skildrar samma objekt under olika omvandlingar ofta kan uttryckas som linjära kombinationer av ett litet antal vyer. I den andra delen (avsnitt II) föreslår vi hur denna linjära kombinationsegenskaper kan användas i igenkänningsprocessen. Modelleringen av objekt med linjära kombinationer av bilder baseras på följande observation. För många kontinuerliga omvandlingar av intresse för erkännande, såsom 3-D rotation, översättning och skalning, kan alla möjliga vyer av det omvandlande objektet uttryckas helt enkelt som en linjär kombination av andra vyer av samma objekt. Koefficienter för dessa linjära kombinationer följer ofta utöver vissa funktionella begränsningar. I de två följande avsnitten visar vi att uppsättningen möjliga bilder av ett objekt som genomgår stela 3-D-omvandlingar och skalning är inbäddad i ett linjärt utrymme och spänns av ett litet antal 2-D-bilder. De bilder vi kommer att överväga är 2-D kantkartor som produceras i bilden av den (ortografiska) projektionen av de avgränsande konturerna och andra synliga konturer på 3-D-objekt. Vi kommer att använda oss av följande definitioner. Med tanke på ett föremål och en siktriktning är fälgen uppsättningen av alla punkter på objektets yta vars normala är vinkelrät mot siktriktningen [13]. Denna uppsättning kallas också konturgeneratorn [17]. En siluett är en bild som genereras av den ortografiska projektionen av fälgen. I analysen nedan antar vi att varje punkt längs silhuetten genereras av en enda fälg 0162~8828/91$01.00 0 1991 IEEE
Ullman och Basri Ref visade att nya vyer kan uttryckas som linjära kombinationer av andra vyer från samma scen.
8,989,489
Recognition by Linear Combinations of Models
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,952
Abstract-Med införandet av nätverksfunktioner virtualisering teknik, migrering hela företag datacenter in i molnet har blivit en möjlighet. För att en leverantör av molntjänster (CSP) ska kunna erbjuda sådana tjänster måste dock flera forskningsproblem fortfarande åtgärdas. I tidigare arbete har vi introducerat en plattform, kallad nätverksfunktionscenter (NFC), för att studera forskningsfrågor relaterade till virtualiserade nätverksfunktioner (VNF). I en NFC antar vi att VNFs ska implementeras på virtuella maskiner som kan användas i vilken server som helst i CSP-nätverket. Vi har föreslagit en resursalgoritm för VNF baserad på genetiska algoritmer (GAs). I detta dokument presenterar vi en omfattande analys av två resursfördelningsalgoritmer baserade på GA för: 1) den inledande placeringen av VNF och 2) skalning av VNF för att stödja trafikförändringar. Vi jämför de föreslagna algoritmernas prestanda med en traditionell linjär programmeringsresursallokeringsteknik. Vi kombinerar sedan data från tidigare empiriska analyser för att generera realistiska VNF-kedjor och trafikmönster, och utvärderar resursfördelningens beslutsalgoritmer. Vi antar olika arkitekturer för datacenteret, implementerar olika fitnessfunktioner med GA, och jämför deras prestanda vid skalning över tiden.
Rankotge m.fl. REF presenterade en resursalgoritm baserad på genetiska algoritmer för att lösa VNF-placeringen i ett datacenter som minimerar användningen av IT-resurser.
28,867,567
Optimizing Resource Allocation for Virtualized Network Functions in a Cloud Center Using Genetic Algorithms
{'venue': 'IEEE Transactions on Network and Service Management', 'journal': 'IEEE Transactions on Network and Service Management', 'mag_field_of_study': ['Computer Science']}
82,953
Det seminala resultatet av Impagliazzo och Rudich (STOC 1989) gav en black-box separation mellan enkelriktade funktioner och kryptering med öppen nyckel: ett krypteringssystem med öppen nyckel kan inte konstrueras med enkelriktade funktioner i svartbox. Dessutom deras resultat implicita svart-box separationer mellan enkelriktade funktioner och protokoll för vissa Secure Function Evaluation (SFE) funktioner (särskilt Obligatorisk överföring). Förvånansvärt nog har det dock sedan dess inte gjorts några ytterligare framsteg när det gäller att separera enkelriktade funktioner och SFE-funktioner. I detta arbete presenterar vi den kompletta bilden för finita deterministiska 2-parts SFE-funktioner, vis envägsfunktioner. Vi visar att i händelse av halvhederliga motståndare, enkelriktade funktioner är svart-box separerade från alla sådana SFE-funktioner, utom de som har villkorslöst säkra protokoll (och därför inte förlitar sig på någon beräkningshårdhet). När det gäller aktiva motståndare är en enkelriktad funktion i svartbox verkligen användbar för SFE, men vi visar att den är användbar bara så mycket som tillgång till en idealisk åtagandefunktion är användbar. Tekniskt sett fastställer vårt huvudresultat begränsningarna för slumpmässiga orakel för säker beräkning. Vi visar att en tvåpartsdeterministisk funktionalitet f har ett säkert protokoll i den slumpmässiga orakelmodellen som (statistiskt) är säker mot halvhederliga motståndare om och endast om f har ett protokoll i den enkla modellen som (fullständigt) är säker mot halvhederliga motståndare. Dessutom, när det gäller aktiva motståndare, en deterministisk SFE funktionalitet f har ett (UC eller fristående) statistiskt säkert protokoll i den slumpmässiga oraklet modellen om * En fullständig version av detta papper är tillgänglig på [36] och endast om f har ett (UC eller fristående) statistiskt säkert protokoll i åtagande-hybrid modellen. Vårt bevis är baserat på en "gränsanalys" av två-part protokoll, kombinera det med (förlängningar av) "oberoende inlärare" av Impagliazzo-Rudich/Barak-Mahmoody. Vi gör viktig användning av en combinatorial egenskap, som ursprungligen upptäcktes av Kushilevitz (FOCS 1989), av funktioner som har semi-hedest säkra protokoll i den enkla modellen (och därför vår analys gäller endast funktioner av polynomialsized domäner, för vilka en sådan karakterisering är känd). Vårt resultat kan ses som ett första steg mot att bevisa en gissning som vi lägger fram i detta arbete och kallar det många världars gissning. För varje 2-parts SFE funktionalitet f, kan man överväga en "värld" där f kan vara semi-honest säkert realiseras i beräkningsinställningen. Många-Worlds Conjecture säger att det finns oändligt många "skiljaktiga världar" mellan minicrypt och kryptomani i universumet av Impagliazzos världar.
Mahmoody m.fl. REF anser att halvärliga, deterministiska funktioner med polynom-stora domäner och visar att alla sådana funktioner som kan realiseras i den slumpmässiga oraklet modellen är "triviala" i samma mening som ovan.
1,930,181
Limits of random oracles in secure computation
{'venue': "ITCS '14", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,954
Abstrakt. Även om forskningen på den semantiska webben har fortskridit i jämn takt, har dess löfte ännu inte förverkligats. En stor svårighet är att Semantic Web till sin natur är ett stort, ocensurerat system som vem som helst kan bidra till. Detta väcker frågan om hur mycket trovärdighet man kan ge varje källa. Vi kan inte förvänta oss att varje användare ska känna till tillförlitligheten hos varje källa, och vi skulle inte heller vilja tilldela top-down-värden eller globala trovärdighetsvärden på grund av förtroendets subjektiva natur. Vi tar itu med detta problem genom att använda ett nät av förtroende, där varje användare har förtroende för ett litet antal andra användare. Vi komponerar sedan dessa truster till förtroendevärden för alla andra användare. Resultatet av vår beräkning är inte en agglomerat "tillförlitlighet" för varje användare. I stället får varje användare en personlig uppsättning truster, som kan variera mycket från person till person. Vi definierar egenskaper för kombinationsfunktioner som slår samman sådana truster, och definierar en klass av funktioner för vilka sammanslagning kan göras lokalt samtidigt som dessa egenskaper upprätthålls. Vi ger exempel på specifika funktioner och tillämpar dem på data från Epinions och vår BibServ bibliografiserver. Experiment bekräftar att metoderna är robusta mot buller och inte sätter orimliga förväntningar på användarna. Vi hoppas att dessa metoder kommer att bidra till att flytta den semantiska webben närmare att uppfylla sitt löfte.
Richardson och Al. göra det möjligt för användare att behålla förtroendet för andra användare och tillhandahålla funktioner för att slå samman dessa värden till förtroendevärden för alla användare genom att utnyttja förtroendevägen mellan användare REF.
13,034,456
Trust Management for the Semantic Web
{'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,955
Abstract-Tre automatiska testfallsalgoritmer som är avsedda att testa resursfördelningsmekanismerna för telekommunikationssystem införs. Även om dessa tekniker var särskilt utformade för att testa telekommunikationsprogram, kan de användas för att generera testfall för alla programvarusystem som kan modelleras av en Markov kedja förutsatt att operativa profildata kan antingen samlas in eller uppskattas. Dessa algoritmer har använts framgångsrikt för att utföra belastningstestning för flera verkliga industriella mjukvarusystem. Erfarenhet som genererar testsviter för fem sådana system presenteras. Tidig erfarenhet av algoritmerna visar att de är mycket effektiva när det gäller att upptäcka subtila fel som sannolikt skulle ha missats om belastningstester hade gjorts på ett mer traditionellt sätt, med hjälp av handgjorda testfall. Ett domänbaserat tillförlitlighetsmått tillämpas på system efter det att algoritmerna för belastningstestning har använts för att generera testdata. Data presenteras för samma fem industriella telekommunikationssystem för att spåra tillförlitligheten som en funktion av den grad av systemdegradering som erfarits.
REF presenterar tekniker för att generera testfall som gäller för programvara som kan modelleras av Markov-kedjor, förutsatt att operativa profildata finns tillgängliga.
40,255,849
The automatic generation of load test suites and the assessment of the resulting software
{'venue': 'IEEE Trans. Software Eng.', 'journal': 'IEEE Trans. Software Eng.', 'mag_field_of_study': ['Computer Science']}
82,956
Abstrakt. Distribuerad mänsklig beräkning (DHC) används för att lösa datorproblem genom att införliva ett stort antal människors samarbetsinsatser. Det är också en lösning på AI-komplett problem såsom naturligt språk bearbetning. Den semantiska webben med sin rot i AI har många forskningsproblem som anses som AI-komplett. T.ex. Samreferensresolution, som innebär att man ska avgöra om olika URI:er avser samma enhet, är ett betydande hinder för att komma till rätta med genomförandet av storskaliga semantiska webbapplikationer. I detta dokument föreslår vi en ram för att bygga ett DHC-system ovanpå det länkade datamolnet för att lösa olika datorproblem. För att visa konceptet fokuserar vi på att hantera samreferensresolutionen när vi integrerar distribuerade datauppsättningar. Traditionellt används maskininlärningsalgoritmer som en lösning för detta, men de är ofta beräknings dyra, felbenägna och inte skalbara. Vi designade ett DHC-system som heter iamResearcher, som löser problemet med den vetenskapliga publikationens upphovsmansidentitetssamreferens vid integrering av distribuerade bibliografiska dataset. I vårt system aggregerade vi 6 miljoner bibliografiska data från olika publikationsdatabaser. Användare kan registrera sig till systemet för att granska och anpassa sina egna publikationer, vilket löser problemet med samreferenser på ett distribuerat sätt. De aggregerade resultaten är avrefererbara i det öppna länkade datamolnet.
Referensreferensreferensen föreslår ett system för resolution av människor där upphovsmännen kan göra anspråk på sina egna publikationer.
5,432,442
Distributed human computation framework for linked data co-reference resolution
{'venue': 'ESWC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,957
Ett ad hoc-nätverk är ett samarbete mellan en samling (vanligtvis trådlösa) mobila noder utan att någon centraliserad åtkomstpunkt eller befintlig infrastruktur behöver ingripa. För att ge optimal kommunikationsförmåga måste ett routingprotokoll för ett sådant dynamiskt självstartande nätverk vara i stånd till unicast, sändning och multicast. I detta dokument utökar vi Ad-hoc On-Demand Distance Vector Routing (AODV), en algoritm för driften av sådana ad-hoc-nätverk, för att erbjuda nya multicast-funktioner som följer naturligt från sättet AODV etablerar unicast-rutter. AODV bygger multicast träd vid behov (dvs. on-demand) för att ansluta multicast gruppmedlemmar. Kontroll av multicast trädet fördelas så att det inte finns någon enda punkt för misslyckande. AODV tillhandahåller loopfria rutter för både unicast och multicast, även vid reparation av trasiga länkar. Vi inkluderar en utvärderingsmetod och simuleringsresultat för att validera korrekt och effektiv drift av AODV algoritmen.
Multicast ad hoc on demand distance vector (MAODV) REF har en multicast gruppledare för att leda en grupp.
2,663,477
Multicast operation of the ad-hoc on-demand distance vector routing protocol
{'venue': "MobiCom '99", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,958
Med tanke på en enda regnig bild är vårt mål att visuellt ta bort regnstrimmor och den beslöjande effekt som orsakas av spridning och överföring av regnstrimmor och regndroppar. Vi är särskilt intresserade av kraftigt regn, där regnstrimmor av olika storlekar och riktningar kan överlappa varandra och den beslöjande effekten minskar kontrasten kraftigt. För att uppnå vårt mål introducerar vi ett skal-medvetet flerstegs konvolutionellt neuralt nätverk. Vår huvudidé här är att olika storlekar av regn streaks visuellt försämrar scenen på olika sätt. Stora närbelägna strimmor hindrar större regioner och kommer sannolikt att återspegla spektakulära höjdpunkter mer framträdande än mindre avlägsna strimmor. Dessa olika effekter av olika ränder har sina egna egenskaper i sina bilddrag, och behöver därför behandlas annorlunda. För att inse detta skapar vi parallella undernätverk som är utbildade och medvetna om dessa olika skalor av regnstreck. Till vår kännedom är denna idé om parallella undernätverk som behandlar samma klass av objekt enligt deras unika underklasser ny, särskilt i samband med regnborttagning. För att verifiera vår idé utförde vi experiment på både syntetiska och verkliga bilder, och fann att vår metod är effektiv och överträffar de toppmoderna metoderna.
Ett flerstegsnät som består av flera parallella undernätverk utformades för att modellera och ta bort regnstrimmor av olika storlek REF.
21,982,789
Single Image Deraining using Scale-Aware Multi-Stage Recurrent Network
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,959
Krafthantering och konkurrenskraft Problemsättning: I ett allmänt scenario får vi en anordning som alltid finns i en av flera stater. I översiktsartiklar utöver det aktiva tillståndet kan det till exempel finnas standby-, suspensions-, sömn- och full-off-tillstånd. Dessa stater har individuella strömförbrukningsnivåer. Den energi som uppstår vid övergången från en högre makt till ett lägre makttillstånd är vanligtvis försumbar. En uppströmsdrift förbrukar dock en betydande mängd energi. Med tiden upplever enheten en alternerande sekvens av aktiva och inaktiva perioder. Under aktiva perioder måste systemet vistas i aktivt läge för att utföra de uppgifter som krävs. Under inaktiva perioder kan systemet flyttas till lägre effekttillstånd. En algoritm måste bestämma när övergången ska utföras och till vilka stater den ska flyttas. Målet är att minimera den totala energiförbrukningen. Eftersom energiförbrukningen under de aktiva perioderna är fast, förutsatt att föreskrivna uppgifter måste utföras, fokuserar vi på energiminimering i de inaktiva intervallerna. I själva verket fokuserar vi på alla sysslolösa perioder och optimerar energiförbrukningen i alla sådana tidsramar. Detta power management problem är ett online problem, det vill säga när som helst en enhet inte är medveten om framtida händelser. Mer specifikt, i en sysslolös period, systemet har ingen information när perioden slutar. Är det värt att flytta till en lägre makt och dra nytta av den minskade energiförbrukningen, med tanke på att systemet äntligen måste drivas upp igen till en kostnad för det aktiva läget? Prestandaanalys: Trots att det är svårt att inte känna till framtiden, bör en onlinestrategi uppnå ett tydligt bra resultat. Här använder sig algoritmerna av konkurrensanalys, där en online-algoritm ALG jämförs med en optimal offline-algoritm OPT. 38 OPT är en allvetande strategi som känner till hela framtiden och kan beräkna en statlig övergångsplan för minsta totala energi. Online-algoritm ALG kallas c-konkurrenskraft om för varje ingång, t.ex. för varje tomgångsperiod, den totala energiförbrukningen för ALG är högst c gånger den för OPT. Konkurrenskraftig analys ger en stark prestandagaranti i värsta fall. En online-strategi måste fungera bra på alla ingångar (idle perioder) som till och med kan genereras av en motståndare. Detta kontradiktoriska scenario kan verka pessimistiskt men det är förenligt med klassisk algoritmanalys som utvärderar strategier i termer av deras värsta-fall resurser, typiskt körtid eller minne krav. I detta avsnitt kommer vi främst att studera algoritmer med hjälp av konkurrensanalys men kommer också att överväga prestanda på indata som genereras enligt sannolikhetsfördelningar. I det följande kommer vi först att studera system som endast består av två stater. Då kommer vi att ta itu med system med flera stater. Vi betonar att vi överväger att minimera energin. Vi bortser från den försening som uppstår när ett system övergår från en lägre makt till ett högre makttillstånd. Överväga ett tvåstatssystem som kan vistas i ett aktivt tillstånd eller i ett viloläge. Låt r vara strömförbrukningen, mätt i energienheter per tidsenhet, i aktivt tillstånd. Energiförbrukningen i viloläge antas vara 0. Resultaten vi presenterar i följande generalisera till en godtycklig konsumtion i viloläge. Låt b energienheter, där b > 0, krävas för att omvandla systemet från vilotillståndet till det aktiva tillståndet. Vi antar att energin i övergången från det aktiva till sömntillståndet är 0. Om så inte är fallet kan vi helt enkelt vika den motsvarande energin till kostnaden b som uppstår i nästa power-up drift. Systemet upplever en tomgångsperiod vars längd T till en början är okänd. En optimal offline-algoritm OPT, som känner till T i förväg, är enkel att formulera. Vi jämför värdet av rT, vilket är den totala energi som förbrukas under tomgången när du bor i det aktiva läget, med power-up kostnaden för b. Om rT < b, förblir OPT i aktivt tillstånd under hela den inaktiva perioden eftersom övergången mellan de aktiva och vilolägen kostar mer. Om rT 3 b, med hjälp av viloläge är fördelaktigt. I detta fall övergår OPT till sömntillståndet redan i början av den tomgångsperiod och krafter fram till den aktiva staten i slutet av perioden. Följande deterministiska online-algoritm efterliknar beteendet hos OPT, som använder viloläge på tomgång perioder av längd minst b/r. Energin har blivit en ledande konstruktionsbegränsning för datorutrustning. maskinvaruingenjörer och systemdesigners utforskar nya riktningar för att minska energiförbrukningen av sina produkter. Överväga ett system med l stater s 1,..., s l. Låta r i vara strömförbrukning av s i. Vi numrerar staterna i ordning av minskande hastigheter, såsom r 1 >... > r l. Därför är s 1 den aktiva staten och s l representerar staten med lägsta energiförbrukning. Låt b i vara den energi som krävs för att övergången systemet från s i till det aktiva tillståndet s 1. Eftersom övergångar från lägre makt stater är dyrare har vi b 1 £... £ b l. Dessutom naturligtvis b 1 = 0. Vi antar återigen att övergångar från högre makt till lägre makt stater ådrar sig 0 kostnad eftersom motsvarande energi är vanligtvis försumbar. Målet är att skapa ett övergångsschema som minimerar den totala energiförbrukningen under en tomgång. Irani m.fl. 24 presenterade online och offline algoritmer. De antar att övergångsenergierna är additiva, såsom, övergång från en lägre makt tillstånd s j till en högre makt tillstånd s i, där i < j, ådrar sig en kostnad av b j − b i. En algoritm aLG-d: I en tomgångsperiod återstår först i det aktiva tillståndet. Efter b/r tidsenheter, om perioden ännu inte har avslutats, övergång till vilotillstånd. Det är lätt att bevisa att ALG-D är 2-konkurrenskraftigt. Vi behöver bara överväga två fall. Om rT < b, förbrukar ALG-D rT-enheter energi under tomgångsintervallet och detta är i själva verket lika med förbrukningen av OPT. Om rT 3 b, då ALG-D först förbrukar r. b/r = b energienheter för att förbli i aktivt tillstånd. En extra power-up-kostnad på b uppstår vid slutet av tomgångsintervallet. Därför är ALG-D:s totala kostnad 2b, medan OPT ådrar sig en kostnad på b för uppeffektdriften vid slutet av tomgångsperioden. Det är också lätt att verifiera att ingen deterministisk online-algoritm kan uppnå ett konkurrensförhållande mindre än 2. Om en algoritm övergår till vilotillståndet efter exakt t-tidsenheter, då i en tomgång period av längd t det ådrar sig en kostnad av tr + b medan OPT betalar min{rt, b} endast. Vi konstaterar att maktstyrning i tvåstatssystem motsvarar det berömda problemet med skidhyra, ett grundläggande problem i teorin om online-algoritmer, se till exempel Irani och Karlin. 26 Intressant nog är det möjligt att slå konkurrenskraften av 2 med hjälp av randomisering. En randomiserad algoritm övergår till vilotillståndet enligt en sannolikhetsdensitetsfunktion p(t). Sannolikheten för att systemet slår ner under de första t 0-tidsenheterna under en tomgångsperiod är ò 0 t 0 p(t)dt. Karlin m.fl. 28 bestämde den bästa sannolikhetsfördelningen. Den densitet funktion är den exponentiella funktionen e rt/b, multiplicerad med faktorn för att säkerställa att p(t) integrerad över hela tidshorisonten är 1, det vill säga, systemet är definitivt drivs ner någon gång. Algoritm alLG-r: Övergång till viloläge enligt sannolikhetstäthetsfunktionen ALG-R uppnår en avsevärt förbättrad konkurrenskraft, jämfört med deterministiska strategier. Resultat av Karlin et al. 28 innebär att ALG-R uppnår ett konkurrenskraftigt förhållande, Där e » 2.71 är det eulerska numret. Mer exakt är den förväntade energiförbrukningen för ALG-R inte mer än gånger den för OPT under någon tomgångsperiod. Återigen, är det bästa konkurrensförhållandet en randomiserad strategi kan få. Ur praktisk synvinkel är det också lärorikt att studera stokastiska inställningar där längden på tomgångsperioder styrs av sannolikhetsfördelningar. I praktiken kan korta perioder förekomma oftare. Sannolikhetsfördelning kan också modellera specifika situationer där antingen mycket korta eller mycket långa tomgångsperioder är mer benägna att inträffa, jämfört med perioder med medellång längd. Naturligtvis är en sådan sannolikhetsfördelning kanske inte känd i förväg men kan läras med tiden. I det följande antar vi att distributionen är känd. Låt Q = (q(T) ) 0£T <∞ vara en fast sannolikhetsfördelning på längden T av tomgångsperioder. För alla t 3 0, beakta den deterministiska algoritm ALG t som alltid driver ner efter exakt t tid enheter. Om tomgångsperioden slutar innan ALG t slår ner, t.ex. om T < t, förblir algoritmen i aktivt tillstånd under tomgångsintervallets varaktighet och använder en rT-energi. Om tomgångsperioden ännu inte har avslutats när ALG t slår ut, såsom, om T 3 t, då algoritmen ådrar sig en fast energi av rt + b eftersom en energi av rt förbrukas innan systemet i drivs ner och en kostnad b uppstår för övergången tillbaka till det aktiva läget. För att bestämma den förväntade kostnaden för ALG t, Vi måste integrera över alla möjligheter för längden T av overksam period med hjälp av sannolikhetsfördelningen Q. De två begreppen nedan representerar de två fallen. Observera att sannolikheten för att overksamhetsperioden ännu inte har avslutats när ALG t driver ner är (1) Karlin et al. 28 föreslog följande strategi som, med tanke på Q, helt enkelt använder den bästa algoritmen ALG t. algoritm alG-P: Med tanke på en fast Q, låt A Q * vara den deterministiska algoritm ALG t som minimerar ekvation 1. Karlin m.fl. visade att för alla Q, den förväntade energiförbrukningen av Intressant, för variabel T den optimala kostnaden har en enkel grafisk representation, se figur 1. Om vi anser att alla linjära funktioner f i (t) = r i t + b i, som representerar den totala energiförbrukningen med hjälp av tillstånd s i, då den optimala energiförbrukningen ges av den nedre delen av arrangemanget av linjer. Man kan använda denna lägre kuvert för att styra en online-algoritm för att välja vilket tillstånd som ska användas när som helst. Låt S OPT (t) betecknar det tillstånd som används av OPT i en tomgång period av total längd t, såsom, S OPT (t), det vill säga lösningen på ekvationen Här antar vi att stater vars funktioner inte förekommer på den lägre kuvert, när som helst, kastas. Vi noterar att algoritmen är en generalisering av ALG-D för tvåstatssystem. Irani m.fl. 24 bevisade att Lower-Envelope är 2-konkurrenskraftig. Detta är den bästa konkurrenskraften en deterministisk algoritm kan uppnå i godtyckliga statliga system. Irani m.fl. 24 studerade också den inställning där längden av tomgångsperioder genereras av en sannolikhetsfördelning Q = (q(T) ) 0£T <∞. De bestämmer tiden t i när en online-strategi bör gå från stat s i-1 till s i, 2 £ i £ l. I detta syfte överväga den deterministiska online-algoritm ALG t som övergår till lägre makt tillstånd efter exakt t tid enheter. Vi bestämmer den förväntade kostnaden för ALG t i en tomgång period vars längd T genereras enligt Q, förutsatt att endast tillstånd s i-1 och s i är tillgängliga. Till en början bor ALG t i staten s i−1. Om tomgångsperioden slutar innan ALG t övergår till lågeffekttillståndet, som t.ex. om T < t, är energiförbrukningen r i‐1 T. Om tomgångsperioden inte har avslutats ännu när ALG t övergår till lågeffekttillståndet, t.ex. om T 3 t, ådrar sig algoritmen en energi r i‐1 t medan den är bosatt i s i‐1 under de första t-tidenheterna och en ytterligare energi av r i (T − t) när den är i tillstånd i under de återstående T − t-tidsenheterna. Vid slutet av den tomgångsperiod, en power-up kostnad b i − b i‐1 betalas för övergången från s i tillbaka till s i‐1. Därför, i detta fall ALG t ådrar sig en total energi av r i‐1 t Den förväntade kostnaden för ALG t, förutsatt att endast s i‐1 och s i är tillgängliga, är Låta t i vara den tid t som minimerar ovanstående uttryck. Irani m.fl. 24 föreslog följande algoritm. Algoritm ALG-P(l): Ändra tillstånd vid övergångstiderna t 2,...,t l definieras ovan. ALG-P(l) är en generalisering av ALG-P för tvåstatssystem. Irani m.fl. bevisade att för varje fast sannolikhetsfördelning Q är den förväntade energiförbrukningen för ALG-P(l) inte mer än gånger den förväntade optimala förbrukningen. Dessutom Irani et al. presenterade en metod för att lära sig en till en början okänd Q. De kombinerade metoden med ALG-P(l) och utförde experimentella tester för en IBM mobil hårddisk med fyra power states. Det visar att det kombinerade systemet uppnår låg energiförbrukning nära den optimala och vanligtvis överträffar många enstaka värdeförutsägelsealgoritmer. Augustine m.fl. 5 undersöka generaliserade flerstatssystem där statsövergångsenergierna kan ta godtyckliga värden. Låt b ij 3 0 vara den energi som krävs för övergången från s i till s j, 1 £ i, j £ l. Augustine et al. visa att LowerEnvelope kan generaliseras och uppnå en konkurrenskraft på 3 + 2Ö2 på 5,8. Detta förhållande gäller för alla tillståndssystem. Bättre gränser är möjliga för specifika system. Augustine m.fl. Utforma en strategi som, för ett givet system S, uppnår ett konkurrensförhållande som är godtyckligt nära den bästa möjliga konkurrenskraften för S. Slutligen överväger författarna stokastiska inställningar och utvecklar optimala övergångstider. Många moderna mikroprocessorer kan köras med variabel hastighet. Exempel är Intel SpeedStep och AMD-processorn PowerNow. Höga hastigheter resulterar i högre prestanda men också hög energiförbrukning. Lägre hastigheter sparar energi men prestanda försämras. Den välkända kub-rot regel för CMOS-enheter anger att hastigheten s av en enhet är proportionell mot kub-roten av kraften eller, motsvarande, kraften är proportionell till s 3. Algoritmlitteraturen överväger en generalisering av denna regel. Om en processor körs i hastighet S, då den erforderliga effekten är s a, där en > 1 är en konstant. Det är uppenbart att energiförbrukningen är integrerad med tiden. Målet är att dynamiskt ställa in hastigheten på en processor för att minimera energiförbrukningen, samtidigt som den ger en önskad servicekvalitet. Dynamisk hastighetsskalning leder till många utmanande schemaläggningsproblem. När som helst måste en schemaläggare bestämma inte bara vilket jobb att utföra utan också vilken hastighet som ska användas. Följaktligen har det funnits ett stort forskningsintresse för utformning och analys av effektiva schemaläggningsalgoritmer. I detta avsnitt granskas de viktigaste resultaten från de senaste åren. Vi tar först upp schemaläggningsproblem med hårda jobbdeadlines. Sedan tänker vi på minimeringen av svarstider och andra mål. I allmänhet är två scenarier av intresse. I offline-inställningen är alla jobb som ska bearbetas kända i förväg. I online-miljö, jobb anländer över tid, och en algoritm, när som helst, måste fatta schemaläggning beslut utan kunskap om framtida jobb. Online-strategier utvärderas igen med hjälp av konkurrensanalys. Onlinealgoritm ALG är c-kompetitiv om, för varje insats, det objektiva funktionsvärdet (vanligtvis energiförbrukningen) för ALG ligger inom c gånger värdet av en optimal lösning. I en seminal tidning, initierar den algoritmiska studien av hastighetsskalning, Yao et al. 40 undersökte ett schemaläggningsproblem med strikta tidsgränser. Vid denna punkt är detta ramverk den överlägset mest studerade algoritmiska hastighetsskalning problem. Betrakta n jobb J 1,..., J n som måste bearbetas på en processor med variabel hastighet. Varje jobb J i anges av en release tid r i, en deadline d i, och en bearbetning volym w i. Frisläppningstiden och deadline markerar det tidsintervall under vilket jobbet måste utföras. Bearbetningsvolymen är den mängd arbete som måste göras för att slutföra arbetet. Intuitivt kan bearbetningsvolymen ses som antalet CPU cykler som krävs för att avsluta jobbet. Handläggningstiden för ett jobb beror på hastigheten. Om J i utförs med konstant hastighet s, det tar w i / s tid enheter för att slutföra jobbet. Företräde för arbetstillfällen är tillåtet, dvs. behandlingen av ett arbete kan avbrytas och återupptas senare. Målet är att skapa en genomförbar tidsplan som minimerar den totala energiförbrukningen. Ramverket av Yao et al. förutsätter att det inte finns någon övre gräns för den maximala processorns hastighet. Därför finns det alltid en genomförbar tidsplan som uppfyller alla tidsgränser. Dessutom antas ett kontinuerligt hastighetsspektrum finnas tillgängligt. Vi kommer senare att diskutera hur vi kan lätta på dessa antaganden. Grundläggande algoritmer: Yao et al. 40 först studera offline-inställningen och utveckla en algoritm för att beräkna optimala lösningar, minimera total energiförbrukning. Strategin kallas YDS som hänvisar till upphovsmännens initialer. Algoritmen fortsätter i en rad iterationer. I varje iteration identifieras ett tidsintervall med maximal densitet och ett motsvarande delschema konstrueras. Löst taget, densiteten i ett intervall I är den minsta genomsnittliga hastighet som krävs för att slutföra alla jobb som måste schemaläggas i I. En hög densitet kräver hög hastighet. Formellt är densiteten D I för ett tidsintervall I = [t, t ¢] det totala arbete som ska slutföras i I dividerat med längden på I. Mer exakt, låt S I vara den uppsättning av jobb J i som måste bearbetas i I eftersom deras release tid och deadline är i I, såsom Algorithm YDS upprepade gånger bestämmer intervallet I av maximal densitet. I ett sådant intervall I schemalägger algoritmen jobben för S I i hastighet D Jag använder Earliest Deadline First (EDF) policy. Denna välkända politik utför alltid jobbet med den tidigaste deadline, bland de tillgängliga oavslutade jobben. Efter detta uppdrag, YDS tar bort set S I samt tidsintervall jag från problem instans. Mer specifikt, för alla ledig jobb J i vars deadline är i intervallet I, den nya deadline är satt till början av I eftersom tidsfönstret jag inte är tillgänglig längre för behandling av J i. Formellt, för alla J i med d i I, den nya deadline tiden är inställd på d i := t. På samma sätt, för alla oplanerade J i vars releasetid är i I, den nya releasetiden är inställd på slutet av I. Återigen, formellt för alla J i med r i I, är den nya release tiden r i := t ¢. Tidsintervall Jag är kasserad. Denna process upprepas tills det inte finns fler lediga jobb. Vi ger en sammanfattning av algoritmen i pseudokod. granska artiklar den horisontella axeln. I den första iteration YDS identifierar I 1 = [3, 8] som intervall av maximal densitet, tillsammans med uppsättning S I 1 = { J 2, J 3 }. I I 1, det röda jobbet J 2 är föreslagen vid tidpunkten 5 för att ge företräde till orange jobb J 3 med en tidigare deadline. I den andra iterationen I 2 = [13, 20] är det maximala densitetsintervallet. De mörkgröna och ljusgröna jobben är planerade; företrädet används igen en gång. I den tredje iterationen är det återstående jobbet J 3 schemalagt i de tillgängliga ankomst- och avgångstiderna. När man identifierar intervaller av maximal densitet behöver YDS bara beakta intervaller vars gränser är lika med releasetider och tidsgränser för jobben. En enkel implementering av algoritmen har en körtid på O(n 3 ). Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. 34 visade att tiden kan minskas till O(n 2 log n). Ytterligare förbättringar är möjliga om arbetsintervallen bildar en trädstruktur. Om det inte är möjligt att genomföra en viss arbetsuppgift, är situationen mer känslig. I detta fall är det omöjligt att slutföra alla arbetstillfällen. Målet är att designa algoritmer som uppnår bra genomströmning, vilket är den totala bearbetningsvolymen av jobb som slutförs vid sin deadline, och samtidigt optimera energiförbrukningen. Papper 7, 17 presenterar algoritmer som även fungerar på nätet. Vid varje tidpunkt som strategierna upprätthåller en pool av jobb som de har för avsikt att slutföra. Nyanlända jobb kan komma in i poolen. Om poolen innehåller för stor bearbetning volym, arbetstillfällen utvisas så att genomströmningen inte minskas avsevärt. Algoritmen av Bansal et al. 7 är 4 konkurrenskraftiga när det gäller genomströmning och konstant konkurrenskraft i fråga om energiförbrukning. Temperaturminimering: Höga processorhastigheter leder till höga temperaturer, vilket försämrar en processors tillförlitlighet och livslängd. Bansal m.fl. 9 överväga minimering av den maximala temperatur som uppstår under bearbetning. De utgår från att kylningen följer Newtons lag, som säger att en kropps kylningshastighet står i proportion till temperaturskillnaden mellan kroppen och miljön. Bansal m.fl. 9 visar att algoritmer YDS och BKP har gynnsamma egenskaper. För alla jobb sekvens, är den maximala temperaturen inom en konstant faktor för minsta möjliga optimal schema för de nuvarande tillgängliga oavslutade jobb. Bansal m.fl. 9 gav en omfattande analys av ovanstående algoritm och visade att konkurrensförhållandet är exakt en. När det gäller konkurrenskraften är därför Optimal Tillgängligt bättre än genomsnittet. Bansal m.fl. 9 presenterade också en ny online-algoritm, kallad BKP enligt författarnas initialer, som kan ses som en approximering av de optimala hastigheterna för YDS på ett online sätt. Återigen, algoritmen tar hänsyn till intervalltätheter. För tider t, t 1, och t 2 med t 1 < t £ t 2, låt w(t, t 1, t 2 ) vara den totala bearbetningsvolymen av jobb som har anlänt med tid t, har en releasetid på minst t 1 och en deadline på högst t 2. Sedan, intuitivt, max t 1, t 2 w(t, t 1, t 2 )/(t 2 − t 1 ) är en uppskattning av den hastighet som används av YDS, baserat på kunskap om jobb som har anlänt med tiden t. Den nya algoritmen BKP approximerar denna hastighet genom att överväga specifika tidsfönster [et − (e − 1) t¢, t¢], för t¢ > t, av längd e(t¢ − t). Motsvarande nödvändiga hastighet multipliceras sedan med en faktor av e. algoritm BKP: När som helst t använda en hastighet av e. s(t), där tillgängliga oavslutade jobb bearbetas med EDF. Bansal m.fl. 9 visade att BKP uppnår ett konkurrenskraftigt förhållande av, vilket är bättre än konkurrenskraften för Optimal Tillgänglig för stora värden av a. Alla ovanstående online-algoritmer uppnår konstanta konkurrensförhållanden som beror på en och inga andra problemparameter. Beroendet av a är exponentiellt. För små värden av a, som förekommer i praktiken, är konkurrensförhållandena relativt små. Ett resultat av Bansal et al. 9 innebär att det exponentiella beroendet av a är en naturlig del av problemet. Varje randomiserad onlinealgoritm har en konkurrenskraft på minst W (4/3) a ). förfining-Bounded hastighet: Den problem inställning som anses hittills förutsätter en kontinuerlig, obegränsad spektrum av hastigheter. I praktiken är dock endast en begränsad uppsättning av diskreta hastighetsnivåer s 1 < s 2 <... < s d tillgängliga. De 23 undersöker en utökad problematik där en processor med variabel hastighet kan övergå till ett vilotillstånd. I viloläget, är energiförbrukningen 0 medan i aktivt tillstånd även vid hastighet 0 viss icke-negativ mängd energi förbrukas. Därför Irani et al. 23 kombinerar hastighetsskalning med power-down-mekanismer. I standardinställningen utan viloläge, algoritmer tenderar att använda låg hastighet nivåer som omfattas av release tid och deadline begränsningar. Däremot kan det i viloläge vara fördelaktigt att påskynda ett arbete för att generera inaktiva tider då processorn kan övergå till viloläge. Irani m.fl. 23 utveckla online- och offlinealgoritmer för denna utökade inställning. Baptiste m.fl. 11 och Demaine m.fl. 21 också studera schemaläggning problem där en processor kan ställas in sömn, om än i en inställning utan hastighetsskalning. Minimera Svarstid Ett klassiskt mål i schemaläggningen är minimeringen av svarstiderna. En användare som släpper en uppgift till ett system vill få feedback, säger resultatet av en beräkning, så snabbt som möjligt. Användarnöjdhet beror ofta på hur snabbt en enhet reagerar. Tyvärr, svarstid minimering och energiminimering strider mot målen. För att uppnå snabba svarstider måste ett system vanligtvis använda höga processorer hastigheter, vilket leder till hög energiförbrukning. För att spara energi bör däremot låga hastigheter användas, vilket leder till höga svarstider. Därför måste man hitta sätt att integrera båda målen. Betrakta n jobb J 1,..., J n som måste schemaläggas på en processor med variabel hastighet. Varje jobb J i anges av en release tid r i och en bearbetning volym w i. När ett arbete anländer är dess bearbetningsvolym känd. Företräde av 37 studera en problematik där en fast energi volym E ges och målet är att minimera den totala flödestiden för jobben. Författarna antar att alla jobb har samma bearbetningsvolym. Genom att skala, kan vi anta att alla jobb har enheter. Pruhs och Al. 37 överväga offline scenariot där alla jobb är kända i förväg och visa att optimala scheman kan beräknas i polynom tid. Inom detta ramverk med en begränsad energivolym är det dock svårt att konstruera bra online-algoritmer. Om framtida arbetstillfällen är okända är det oklart hur mycket energi som ska investeras för de uppgifter som för närvarande finns tillgängliga. energi plus flödestider: Albers och Fujiwara 2 föreslog ett annat tillvägagångssätt för att integrera energi och flödestidsminimering. De betraktar en kombinerad objektiv funktion som helt enkelt lägger till de två kostnaderna. Låt E betecknar energiförbrukningen i ett schema. Vi vill minimera. Genom att multiplicera energi eller flödestid med en skalar kan vi också överväga en viktad kombination av de två kostnaderna, vilket uttrycker det relativa värdet av de två termerna i den totala kostnaden. Albers och Fujiwara koncentrerar sig på jobb i enhetsstorlek och visar att optimala offlinescheman kan konstrueras i polynomtid med hjälp av en dynamisk programmeringsmetod. I själva verket algoritmen kan också användas för att minimera den totala flödestiden för jobb med tanke på en fast energivolym. Bansal m.fl. och Lam et al. 7, 32 föreslå algoritmer för inställningen att det finns en övre gräns på den maximala processorn hastighet. Alla ovanstående resultat antar att när ett arbete anländer, dess bearbetning volym är känd. Papper 18, 32 undersöker det svårare fallet att denna information inte är tillgänglig. De resultat som presenterats hittills gäller arkitekturer med en processor. Energiförbrukning är dock också ett stort problem i multiprocessormiljöer. För närvarande är relativt få resultat kända. Albers m.fl. 3 undersöka deadline-baserad schemaläggning för m identiska parallella processorer. Målet är att minimera den totala energin på alla maskiner. Författarna löser först komplexiteten i offline-problemet genom att visa att datorer optimala scheman är NP-hårda, även för enhet storlek jobb. Om inte P = NP kan optimala lösningar därför inte beräknas på ett effektivt sätt. Albers m.fl. 3 sedan utveckla polynom tid offline algoritmer som uppnår konstant faktor approximationer, såsom, för varje inmatning den förbrukade energin ligger inom en konstant faktor för den sanna optimal. De utformar också online-algoritmer som uppnår konstanta konkurrensförhållanden. Lam m.fl. 30 studiedeadlinebaserad schemaläggning på två hastighetsbegränsade processorer. De presenterar en strategi som är konstant konkurrenskraftig i termer av throughput maximization och energiminimering. Bunde 15 undersöker flödestidsminimering i multiprocessormiljöer, givet en fast energivolym. Han presenterar hårdhet resultat samt approximation garantier för enhet storlek jobb. Lam m.fl. 31 överväga den objektiva funktionen att minimera energi plus flödestider. De designar online-algoritmer som uppnår konstanta konkurrensförhållanden. Makespan minimization: En annan grundläggande objektiv funktion i schemaläggning är makespan minimization, det vill säga minimiseringen av den punkt i tiden när hela schemat slutar. Bunde 15 förutsätter att jobb anländer över tid och utvecklar algoritmer för enkel- och multiprocessormiljöer. Pruhs och Al. 36 överväga uppgifter som har företräde begränsningar som definieras mellan dem. De utformar algoritmer för parallella processorer med en fast energivolym. Trådlösa nätverk som ad hoc-nät och sensornätverk har fått stor uppmärksamhet under de senaste åren. Framträdande tillämpningar av sådana nätverk är observation av livsmiljöer, miljöövervakning och prognoser. Nätverksnoder har vanligtvis mycket begränsad batterikapacitet så att effektiva energihanteringsstrategier är nödvändiga för att förbättra ett näts livslängd. I den här undersökningen fokuserar vi på två algoritmiska problem som har fått stort intresse för forskarsamhället på senare tid. Dessutom kan dessa problem betraktas som planeringsproblem och är därmed relaterade till de ämnen som behandlas i de föregående avsnitten. nättopologier Trådlöst ad hoc-nätverk har ingen fast infrastruktur. Nätverket består i princip av en samling radiostationer med antenner för att sända och ta emot signaler. Under överföringen en station s måste välja en transmissionseffekt P s, med hänsyn till att signalstyrkan minskar över avstånd. Signalen tas emot med framgång av en station t endast om P s/dist(s,t) a > g. Här betecknar dist(s,t) avståndet mellan s och t, koefficienten a > 1 är dämpningshastigheten och g > 0 är en överföringskvalitetsparameter. I praktiken är dämpningshastigheten mellan 2 och 5. Utan förlust av allmängiltighet kan vi anta g = 1. Vid dataöverföring sänds en mycket grundläggande operation, där en viss källa nod vill skicka en bit information till alla andra noder i nätverket. Vi studerar problemet med att utforma topologier som möjliggör energieffektiv sändningsverksamhet i trådlösa nät. Överväg en uppsättning V av n noder som ligger i det verkliga planet R 2. En källa nod s V måste sprida ett meddelande till alla andra noder i nätverket. Men s behöver inte informera alla v ί V direkt. I stället kan noder fungera som relästationer. Om v tar emot meddelandet och överför det till w 1,..., w k, sedan v måste använda en effekt av P v = max 1 £ j k dist( v, w j ) a. Målet är att hitta en topologi, det vill säga ett överföringsschema som minimerar den totala effekten/energin E = S v V P v uppstår av alla noderna. Observera att ett sådant schema motsvarar ett träd T som är rotat på s och innehåller alla noder av V. Barnen i en nod v är noderna som v överför meddelandet. Clementi m.fl. 19 visade att beräkningen av optimala scheman är NP-hård. Därför tillgriper man approximationer. En algoritm ALG uppnår en c-uppskattning om för varje ingång, t.ex. för varje nodmängd V, den lösning som ALG beräknar medför en energiförbrukning på högst c gånger det optimala värdet. Wan m.fl. 39 undersöka olika algoritmer när det gäller deras approximativa garantier. Den mest studerade strategin är MST. För en given noduppsättning V beräknar MST en standard minsta spännvidd T, t.ex. ett träd med minsta totala kantlängd som innehåller alla hörn av V (se t.ex. Cormen et al. Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1). Trädet är rotat vid källnoden s. Dataöverföring utförs längs kanterna på T, det vill säga varje nod sänder ett mottaget meddelande till alla sina barn i trädet. Intuitivt är denna algoritm förnuftig eftersom den lilla totala kantlängden på ett minsta spännträd bör leda till en liten total energiförbrukning. Algoritm MsT: För en given V, beräkna en minsta spännvidd träd rotad på s. Varje nod v överför ett givet meddelande till alla sina barn i T. Många och Wan et al. 39 innebär att approximationsgraden c av BIP uppfyller 13/3 £ c £ 6. Det skulle vara intressant att utveckla snäva gränser för denna algoritm. Som nämnts ovan används sensornätverk vanligtvis för att övervaka en miljö, mäta t.ex. temperatur eller ett kemiskt värde. Uppgifterna måste överföras till en utsedd diskbänksnod som kan utföra ytterligare åtgärder. Becchetti m.fl. 13 och Korteweg m.fl. utveckla energieffektiva protokoll för dataaggregation. Antag att överföringstopologin ges av ett träd T rotat vid diskhon s. Data som samlats in vid ett nätverk nod v överförs längs vägen från v till s i T. Nätverk noder har förmågan att kombinera data. Om två eller flera datapaket samtidigt befinner sig på en nod v, kan v sammanfoga dessa paket till en översiktsartiklar enstaka en och överföra den till den ursprungliga noden, i riktning mot s. Energin som uppstår av en nätverk nod är proportionell mot antalet paket som skickas. Becchetti m.fl. 13 anta att dataposter anländer över tid. Varje post i anges av noden v i där objektet uppstår, en ankomsttid r i och en deadline d i där uppgifterna måste nå diskbänken. Målet är att hitta ett genomförbart överföringsschema som minimerar den maximala energi som krävs vid någon nod. Becchetti m.fl. visa att offline problemet är NP-hård och presentera en 2- approximation algoritm. De utvecklar också distribuerade online-algoritmer för synkrona samt asynkrona kommunikationsmodeller. Korteweg m.fl. 29 studera en problemvariant där dataobjekten inte har tidsfrister men bör nå diskbänken med låg latens. De presenterar algoritmer som samtidigt approximerar energiförbrukning och latens, med tanke på återigen olika kommunikationsmodeller. I den här undersökningen har vi granskat algoritmiska lösningar för att spara energi. En annan undersökning om algoritmiska problem i makthantering skrevs av Irani och Pruhs. 27 Under de senaste månaderna har ett stort antal artiklar publicerats, och vi förväntar oss att energibevarande ur algoritmisk synvinkel kommer att fortsätta att vara ett aktivt forskningsämne. Det finns många vägar till framtida forskning. När det gäller t.ex. effektnedsättningsmekanismer skulle det vara intressant att utforma strategier som tar hänsyn till den latens som uppstår när ett system övergår från ett sömntillstånd till ett aktivt tillstånd. Dessutom behöver vi en bättre förståelse för hastighetsskalningsteknik i multiprocessormiljöer eftersom flerkärnig arkitektur blir allt vanligare inte bara på servrar utan även på stationära datorer och bärbara datorer. Dessutom förtjänar optimeringsproblem i nätverk ytterligare algoritmiska undersökningar. Här skulle det vara intressant att studera energieffektiva punkt-till-punkt-kommunikationer som kompletterar det befintliga arbetet med sändnings- och dataaggregateringsprotokoll. Sist men inte minst, de algoritmer som presenterats hittills måste analyseras i termer av deras genomförande och utförande kostnad: hur mycket extra energi uppstår vid genomförandet av algoritmer i realistiska miljöer. Susanne Albers är professor vid institutionen för datavetenskap vid Humboldt universitet, Berlin, Tyskland.
Energihantering av (inte nödvändigtvis mobila) beräkningsutrustning har varit ett stort problem i de senaste forskningsrapporterna (jfr. Om det inte finns några uppgifter som tyder på att det finns en risk för att det finns en risk för att det uppstår en allvarlig risk för en allvarlig störning, ska den behöriga myndigheten i den medlemsstat där den behöriga myndigheten har sitt säte underrätta den behöriga myndigheten i den medlemsstat där den behöriga myndigheten har sitt säte om detta.
16,604,460
Energy-efficient algorithms
{'venue': 'CACM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,961
I ett isolerat kraftnät eller en mikronät med ett litet koldioxidavtryck, penetrationen av förnybar energi är vanligtvis hög. I sådana kraftnät är energilagring viktigt för att garantera en oavbruten och stabil strömförsörjning för slutanvändarna. Olika typer av energilagring har olika egenskaper, bland annat deras tur- och retureffektivitet, energi- och energiklassificering, självurladdning samt investerings- och underhållskostnader. Dessutom varierar belastningsegenskaperna och tillgängligheten för olika typer av förnybara energikällor i olika geografiska regioner och vid olika tidpunkter på året. Därför är gemensam kapacitetsoptimering för flera typer av energilagring och generering viktigt när denna typ av kraftsystem utformas. I detta dokument formulerar vi ett kostnadsminimeringsproblem för lagring och produktionsplanering, med tanke på både initiala investeringskostnader och drifts-/underhållskostnader, och föreslår en distribuerad optimeringsram för att övervinna de svårigheter som uppstår till följd av den stora storleken på optimeringsproblemet. Resultaten kommer att bidra till att fatta beslut om energilagring och planering av produktionskapacitet i framtida decentraliserade kraftnät med höga förnybara penetrationer. -Kapacitetsplanering, distribuerad optimering, energilagring, mikro-grid, förnybara energikällor. NOMENKLATUR: Uppsättning av olika förnybara generatorer Typer av förnybara generatorer Förnybar produktion per produktionskapacitet per enhet under tidsperiod Förnybar energikostnad under tidsperiod Förnybar produktion under tidsperiod Maximal produktionskapacitet Uppsättning av olika typer av energilagring Typer av energilagring Märkt effekt/energiförhållande Enkelriktad energieffektivitet Energilagringskapacitet Energiförlustkvot per tidsenhet Index Termer
I REF studeras problemet med att gemensamt optimera lagring av flera energislag, förnybar generator och dieselgeneratorkapacitet inom ramen för ett mikronät med ett litet koltryck.
7,178,911
Joint Optimization of Hybrid Energy Storage and Generation Capacity With Renewable Energy
{'venue': 'IEEE Transactions on Smart Grid', 'journal': 'IEEE Transactions on Smart Grid', 'mag_field_of_study': ['Mathematics', 'Engineering', 'Computer Science']}
82,962
Vi introducerar värde iteration nätverk (VIN): en helt differentiable neural nätverk med en "planering modul" inbäddad i. VIN kan lära sig att planera och är lämpliga för att förutsäga resultat som innefattar planeringsbaserade resonemang, såsom policyer för att stärka lärandet. Nyckeln till vårt tillvägagångssätt är en ny differentierad approximation av värde-iteringsalgoritm, som kan representeras som ett konvolutionellt neuralt nätverk, och utbildad end-to-end med hjälp av standard backpropagation. Vi utvärderar VIN-baserade policyer på diskreta och kontinuerliga sökvägar och på en naturligt språkbaserad sökuppgift. Vi visar att genom att lära sig en explicit planeringsberäkning, VIN politik generaliserar bättre till nya, osynliga domäner.
Ett nytt arbete, Value Iteration Networks (VIN) REF emulerar värde iteration genom att utnyttja återkommande konvolutionella neurala nätverk och max-pooling.
11,374,605
Value Iteration Networks
{'venue': 'Advances in Neural Information Processing Systems 29 pages 2154--2162, 2016', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,963
Att skydda individers integritet i grafstrukturerade data samtidigt som man gör korrekta versioner av tillgängliga data är ett av de mest utmanande problemen i dataintegritet. De flesta ansträngningar hittills för att utföra denna data release hamnar fast i komplexitet, överväldiga signalen med buller, och är inte effektiva för användning i praktiken. I detta dokument introducerar vi en ny metod som garanterar olika privatliv. Den anger en sannolikhetsfördelning över möjliga utgångar som noga definieras för att maximera verktyget för den givna inmatningen, samtidigt som den nödvändiga sekretessnivån tillhandahålls. Distributionen är utformad för att bilda en "ladder", så att varje utgång uppnår den högsta "rung" (maximal sannolikhet) jämfört med mindre föredragna utgångar. Vi visar hur vår stege ram kan tillämpas på problem med att räkna antalet förekomster av subgrafer, ett viktigt mål i grafanalys, och ger algoritmer vars kostnad är jämförbar med den för beräkning av räkningen exakt. Vår experimentella studie bekräftar att vår metod överträffar befintliga metoder för att räkna trianglar och stjärnor i form av noggrannhet, och ger lösningar för vissa problem för vilka ingen effektiv metod tidigare var känd. Resultaten av våra algoritmer kan användas för att uppskatta parametrarna för lämpliga grafmodeller, vilket gör det möjligt att ta prover på syntetiska grafer.
Alldeles nyligen, Zhang et al. I REF föreslås en stege för att privat räkna antalet förekomster av subgrafer.
11,424,118
Private Release of Graph Statistics using Ladder Functions
{'venue': "SIGMOD '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,964
Utvecklingen av innovativa lösningar på komplexa problem har blivit allt mer utmanande. Den moderna modellen för utveckling av informationssystem (IS) omfattar användning av tvärfunktionella team, som omfattar både användare, såsom revisorer och säljare, och IS-proffs såsom systemanalytiker och programmerare. Teammedlemmarna måste samarbeta effektivt för att skapa framgångsrika system. Tidigare uppfattade IS-avdelningarna sig själva som självständiga enheter som tillhandahöll särskild expertis till användaravdelningarna. Med team approach, IS yrkesverksamma är inte längre autonoma men är lika medlemmar i en grupp av yrkesverksamma, var och en med ett specifikt bidrag att göra. Deras ansvar är inte längre självständigt att utforma ett IS, utan i stället att försiktigt styra användarna att utforma sina egna system. Förväntade fördelar med framgångsrika team är ökad motivation, större uppgiftsengagemang, högre prestanda, förmåga att stå emot stress, mer innovativa lösningar [1] och minskad utvecklingstid [2]. Forskning pågår för närvarande för att hitta lämpliga åtgärder för dessa faktorer så att gruppeffektiviteten kan utvärderas korrekt [3]. Ett exempel på användningen av team i IS utvecklingsprocessen är styrkommittén, ett team som består av cheferna för större avdelningar i organisationen. I en studie rapporterade 71 procent av de svarande med hjälp av en styrkommitté för att fastställa vilka nya system som skulle utvecklas. Nästan 83 procent av dessa var antingen nöjda (66,8 %) eller mycket nöjda (16 %) med styrkommitténs resultat [4]. Även om dessa resultat tyder på att teamets strategi för IS-planering är populär, är slutsatsen att endast 16 procent var mycket nöjda med resultatet inte en överväldigande positiv utvärdering av deras effektivitet. Om teamets strategi verkligen föredras, som den lagbyggande litteraturen föreslår, då skulle man förvänta sig en högre nivå av tillfredsställelse med lagets prestationer. Ineffektiva team kan vara resultatet av olämplig gruppsammansättning. Att bestämma sig för att använda ett team tillvägagångssätt är bara det första steget. Stor försiktighet måste iakttas vid uppbyggnaden av teamet för att säkerställa dess ultimat effektivitet. Det finns ett antal fallgropar som involverar gruppdynamik som kan undergräva ett lags effektivitet [5]. I detta dokument föreslås en modell för hur ett teams personlighetsliknande sammansättning påverkar det övergripande lagets prestationer. Modellen tillämpar personlighetsteori på teambuildingprocessen och illustrerar sedan vikten av denna teori genom att utvärdera ett exempel på två programvaruutvecklingsteam. Ett av lagen ansågs vara mycket produktivt av
Bradley och Hebert REF föreslår en modell för hur ett teams personlighetsliknande sammansättning påverkar det övergripande lagets prestationer.
18,415,782
The effect of personality type on team performance
{'venue': None, 'journal': 'Journal of Management Development', 'mag_field_of_study': ['Psychology']}
82,965
Neural maskinöversättning är en nyligen föreslagen metod för maskinöversättning. Till skillnad från den traditionella statistiska maskinöversättning, den neurala maskinen översättning syftar till att bygga ett enda neuralt nätverk som kan gemensamt ställa in för att maximera översättningen prestanda. De modeller som nyligen föreslagits för neural maskinöversättning hör ofta till en familj av kodare-dekodrar och koda en käll mening till en fast längd vektor från vilken en dekoder genererar en översättning. I detta dokument antar vi att användningen av en vektor med fast längd är en flaskhals för att förbättra prestandan hos denna grundläggande encoder-dekoder arkitektur, och föreslår att förlänga detta genom att tillåta en modell att automatiskt (mjuk-) söka efter delar av en käll mening som är relevanta för att förutsäga ett målord, utan att behöva bilda dessa delar som ett hårt segment explicit. Med detta nya tillvägagångssätt uppnår vi en översättningsprestanda som är jämförbar med det befintliga toppmoderna frasbaserade systemet på uppgiften att översätta engelska till franska. Dessutom visar den kvalitativa analysen att de (mjuka) anpassningar som modellen har funnit stämmer väl överens med vår intuition.
I REF föreslogs en uppmärksamhetsmekanism för att utvidga den grundläggande arkitekturen för kodare och kodare.
11,212,020
Neural Machine Translation by Jointly Learning to Align and Translate
{'venue': 'ICLR 2015', 'journal': 'arXiv: Computation and Language', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,966
....................................... Material utseende såsom läder återges vanligtvis med microfacet modeller i datorgrafik. Ett mer realistiskt resultat uppnås genom att lägga till en tunn-film beläggning som producerar skimrande färger [Akin 2014]. Vi ersätter den klassiska Fresnel reflektanstermen med en ny Airy reflektanceterm som står för iridescence på grund av tunnfilmsinterferens. Vårt huvudsakliga bidrag består i en analytisk integration av högfrekvent spektral oscillationer som visas av Airy reflektance, vilket är viktigt för praktisk rendering i RGB. För lädermaterialet på modellen använde vi en tunn film av index η 2 = 1,3 och tjocklek d = 290nm, över ett grovt dielektriskt grundmaterial (α = 0,2, η 3 = 1). När scenen roteras, kan goniochromatiska eekter såsom subtila lila färger observeras i betande vinklar. I detta arbete introducerar vi en förlängning till mikrofacetteori för återgivning av skimrande eekter orsakade av tunna lm av varierande tjocklek (som olja, fett, alkoholer, etc) ovanpå ett godtyckligt grovt basskikt. Vår materialmodell är den första att producera ett konsekvent utseende mellan tristimulus (t.ex., RGB) och spektral rendering motorer genom att analytiskt pre-integrera sin spektral respons. Den föreslagna utbyggnaden fungerar med varje mikrofacetbaserad modell: inte bara på reektion över dielektriska eller dielektriska ledare, utan också på överföring genom dielektriska. Vi anpassar dess utvärdering till arbete i flerskaliga rendering sammanhang, och vi avslöjar parametrar som möjliggör konstnärlig kontroll över skimrande utseende. Omkostnaderna jämfört med att använda den klassiska Fresnel reectance eller transmittance termer förblir rimliga nog för praktisk användning i produktionen.
På senare tid har REF utökat mikrofacet-baserade modeller för att återskapa tunnfilmsinterferens.
3,539,206
A practical extension to microfacet theory for the modeling of varying iridescence
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,967
En viktig utmaning vid benchmarking är att förutsäga resultatet av en tillämpning av intresse på ett antal plattformar för att avgöra vilken plattform som ger bäst resultat. I detta dokument föreslås en strategi för att göra detta. Vi mäter ett antal mikroarkitektur-oberoende egenskaper från tillämpning av intresse, och relaterar dessa egenskaper till egenskaperna hos programmen från en tidigare profilerad benchmark svit. Baserat på likheten mellan tillämpning av intresse och program i referenssviten, gör vi en prestandaförutsägelse av tillämpningen av intresse. Vi föreslår och utvärderar tre metoder (normalisering, huvudkomponentanalys och genetisk algoritm) för att omvandla den råa datamängden mikroarkitekturoberoende egenskaper till ett referensutrymme där det relativa avståndet är ett mått på de relativa prestandaskillnaderna. Vi utvärderar vår strategi med hjälp av alla SPEC CPU2000 riktmärken och verkliga hårdvaruprestanda nummer från SPEC webbplats. Vårt ramverk uppskattar per-benchmark maskin rankas med en 0,89 genomsnitt och en 0,80 värsta fall rank korrelationskoefficient.
REF använder runtime-relaterade mikroarkitektur-oberoende egenskaper i prognosprocessen.
1,119,864
Performance prediction based on inherent program similarity
{'venue': "PACT '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,969
Biblioteken har traditionellt använt manual image annotation för indexering och senare hämta sina bildsamlingar. Dock är manuell bild annotering en dyr och arbetsintensiv procedur och därför har det funnits stort intresse för att komma med automatiska sätt att hämta bilder baserat på innehåll. Här föreslår vi ett automatiskt tillvägagångssätt för att kommentera och hämta bilder baserat på en utbildning uppsättning bilder. Vi antar att regioner i en bild kan beskrivas med hjälp av en liten vokabulär av blobs. Blobs genereras från bildfunktioner med hjälp av kluster. Med tanke på en utbildning uppsättning bilder med kommentarer, visar vi att probabilistiska modeller tillåter oss att förutsäga sannolikheten för att generera ett ord med tanke på blobs i en bild. Detta kan användas för att automatiskt kommentera och hämta bilder som ges ett ord som en fråga. Vi visar att relevans modeller. Låt oss härleda dessa sannolikheter på ett naturligt sätt. Experiment visar att noteringen prestanda för denna cross-media relevans modell är nästan sex gånger så bra (i termer av genomsnittlig precision) än en modell baserad på word-blob co-occurence modell och dubbelt så bra som en toppmodern modell som härrör från maskinöversättning. Vårt tillvägagångssätt visar nyttan av att använda formella modeller för informationssökning för uppgiften av bild annotering och hämtning.
Jeon m.fl. I stället antog REF att detta kunde ses som jämförbart med problemet med flerspråkig hämtning och använde en Cross Media Relevance Model (CMRM) för att utföra både bildanmärkning och rangordnad hämtning.
14,303,727
Automatic image annotation and retrieval using cross-media relevance models
{'venue': "SIGIR '03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,970
Abstract-We överväga en trådlös enhet-till-enhet (D2D) nätverk där kommunikation är begränsad till att vara singel-hop. Användare gör godtyckliga förfrågningar från ett ändligt bibliotek av filer och har förfångad information på sina enheter, med förbehåll för en per-node lagringskapacitet begränsning. Ett liknande problem har redan övervägts i en infrastrukturmiljö, där alla användare får ett gemensamt multisändningsmeddelande (kodat) från en enda allvetande server (t.ex. en basstation med alla filer i biblioteket) via en delad flaskhalslänk. I detta dokument betraktar vi en D2D-infrastrukturlös version av problemet. Vi föreslår en caching strategi baserad på deterministisk tilldelning av delpaket av biblioteksfiler, och en kodad leveransstrategi där användarna skickar linjärt kodade meddelanden till varandra för att kollektivt uppfylla sina krav. Vi anser också att en slumpmässig cachingstrategi är lämpligare för ett fullständigt decentraliserat genomförande. Under vissa förhållanden kan båda metoderna uppnå den teoretiska yttre information som är bunden inom en konstant multiplikativ faktor. I vårt tidigare arbete, visade vi att en caching D2D trådlöst nätverk med en-hop kommunikation, slumpmässig caching, och okodad leverans (direkta filöverföringar) uppnår samma genomströmning skala lag infrastruktur-baserade kodade multicasting system, i systemet med ett stort antal användare och filer i biblioteket. Detta visar att den rumsliga återanvändningsvinsten för D2D-nätverket är orderekvivalent med den kodade multisändningsvinsten för överföring från en basstation. Det är därför naturligt att fråga sig om dessa två vinster är kumulativa, dvs. om ett D2D-nät med både lokal kommunikation (spatial återanvändning) och kodad multicasting kan ge en förbättrad skalningslagstiftning. Något kontraintuitivt, visar vi att dessa vinster inte kumulerar (i termer av throughput skalning lag). Detta faktum kan förklaras genom att notera att den kodade leveranssystemet skapar meddelanden som är användbara för flera noder, så att det drar nytta av att sända till så många noder som möjligt, medan rumslig återanvändning kapitaliseras på det faktum att kommunikationen är lokal, så att samma tid slits kan återanvändas i rymden över nätverket. Tyvärr står dessa två frågor i kontrast till varandra.
Ji och al. REF diskuterar rumslig återanvändningsvinst och kodad multisändningsvinst i D2D-cachenätverk.
17,432,854
Fundamental Limits of Caching in Wireless D2D Networks
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,971
Abstrnd - Tillförlitlig dataöverföring m trådlösa sensornätverk b ett mångfacetterat problem inlluenced av fysiska, MAC, nätverk och transportlager. Eftersom seosornätverk är sub]& till strikta resursbegränsningar och är utplacerade av enskilda organisationer, uppmuntrar de återbesök traditionella skiktning och är mindre bundna av standardiserad placering av tjänster såsom tillförlitlighet. I detta dokument presenteras analyser och experiment som resulterar i specifika rekommendationer för att genomföra tillförlitliga datatransporter i sensornät. För att utforska tillförlitligheten i transportskiktet p e n t RMST (tillförlitlig multisegmenttransport), ett nytt transportlager för riktad diffusion. RMST ger garanterad leverans och fragmentering lmasembly för applikationer som kräver dem RMST är ett selektiv NACK-baserat protokoll som kan mdigured för i-nätverk caching och reparation.
RMST REF (tillförlitlig multisegmenttransport) tillför tillförlitlig transport utöver riktad diffusion.
108,798,407
RMST: reliable data transport in sensor networks
{'venue': 'Proceedings of the First IEEE International Workshop on Sensor Network Protocols and Applications, 2003.', 'journal': 'Proceedings of the First IEEE International Workshop on Sensor Network Protocols and Applications, 2003.', 'mag_field_of_study': ['Engineering']}
82,972
Abstract-The beteendet hos ett programvarusystem beror ofta på hur det systemet är konfigurerat. Små konfigurationsfel kan leda till svårdiagnostiserade oönskade beteenden. Vi presenterar en teknik (och dess verktyg implementation, kallad ConfDiagnoser) för att identifiera grundorsaken till ett konfigurationsfel - ett enda konfigurationsalternativ som kan ändras för att producera önskat beteende. Vår teknik använder statisk analys, dynamisk profilering och statistisk analys för att koppla det oönskade beteendet till specifika konfigurationsalternativ. Det skiljer sig från befintliga tillvägagångssätt i två viktiga aspekter: det kräver inte att användarna tillhandahåller ett test oracle (för att kontrollera om programvaran fungerar korrekt) och därmed är helt automatiserad; och det kan diagnostisera både kraschande och icke kraschande fel. Vi utvärderade ConfDiagnoser på 5 icke-kraschande konfigurationsfel och 9 kraschar konfigurationsfel från 5 konfigurerbara programvarusystem skrivna i Java. I genomsnitt var grundorsaken ConfDiagnosers femterankade förslag; i 10 av 14 fel var grundorsaken ett av de tre bästa förslagen; och mer än hälften av tiden var grundorsaken det första förslaget.
Zhang och Ernst kombinerar statisk analys, dynamisk profilering och statistisk analys för att upptäcka problem i konfigurationsfiler REF.
11,610,153
Automated diagnosis of software configuration errors
{'venue': "ICSE '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,973
I en heterogen distribuerad miljö där flera applikationer konkurrerar och delar en begränsad mängd systemresurser, program tenderar att lida av variationer i resurstillgänglighet, och är villiga att anpassa sitt beteende till resursvariationer i systemet utöver en minimal Kvalitet på tjänsten (QoS) garanti. Å ena sidan har de nuvarande anpassningsmekanismerna som byggs upp i en ansökan nackdelen att de saknar global information för att bevara rättvisa mellan alla tillämpningar. Å andra sidan, en adaptiv resurshantering byggd i operativsystemet ignorerar data semantik av programmet. Därför tror vi att ett riktigt adaptivt beteende av QoS kan uppnås i en middleware ram, med data semantik av programmet samt förståelse underliggande resurshantering dynamik. Vi presenterar en ny styrbaserad middleware-ram för att förbättra QoS-anpassningar genom dynamisk styrning och omkonfigurering av de interna funktionerna i en distribuerad multimediaapplikation. Baserat på en strikt modell som definierar QoS-mått, och Task Flow-modellen som beskriver applikationens struktur, utvecklas en Task Control-modell utifrån kontrollteorin. Kontrollteorin tillämpas på utformningen av anpassningsuppgifter för att utforma kontrollpolicyer för ändringar av resursförfrågningar från enskilda applikationer, vilket ger graciös nedbrytning eller uppgradering över en delad resurs inom ett nödvändigt QoS-intervall, eller i extrema fall genomdriva omkonfigureringsprocess utanför QoS-området. Våra antaganden här är att 1) en resursreservation/tilldelning sker för att bevara det minimala QoS-kravet i en ansökan, och (2) inte all resurskapacitet tilldelas till reserverade tjänster. Anpassningen sker över den icke-reserverade delade kapaciteten. Med hjälp av detta tillvägagångssätt kan vi resonera om och validera analytiska systemattribut som stabilitet, smidighet, rättvisa och jämviktsvärden för kontrollåtgärderna över delade resurser. Vår validering är inte bara analytisk, utan också experimentell. Vi har utvecklat en experimentell klientserver visuellt spårningssystem för att utvärdera vår middleware ram. För att upprätthålla spårning precision i ett angivet intervall, styr middleware ramverket spårningsprogram enligt den nuvarande systemdynamiken. Vi visar att vårt ramverk förbättrar applikationens adaptiva förmåga, medan de adaptiva åtgärderna är stabila, flexibla och konfigurerbara i enlighet med de enskilda tillämpningarnas behov. Dessutom visar vi en kvantitativ förbättring av resursutnyttjandet jämfört med övertilldelningsmetoden när QoS-garantier i intervallet krävs.
I REF föreslogs en middleware-kontrollram med hjälp av dynamisk kontroll av de interna parametrarna och omorganisering av funktioner för att effektivt förbättra QoS-anpassningsbesluten.
2,113,347
A Control-Based Middleware Framework for Quality of Service Adaptations
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,974
Abstract-"In-hand manipulation" är förmågan att placera ett objekt i handen, till exempel när man justerar greppet av en hammare innan man hamrar en spik. Den vanliga metoden för handmanövrering med robotiska händer, känd som fingerfärdig manipulation [1], är att hålla ett objekt i fingertopparna på handen och vicka på fingrarna, eller gå dem längs objektets yta. Dexterous manipulation är dock bara en av de många tekniker som finns tillgängliga för roboten. Roboten kan också rulla objektet i handen genom att använda gravitation, eller justera objektets pos genom att trycka det mot en yta, eller om snabbt nog, kan den även kasta objektet i luften och fånga det i en annan pose. Alla dessa tekniker har en sak gemensamt: de förlitar sig på resurser extrinsiska till handen, antingen gravitation, yttre kontakter eller dynamiska armrörelser. Vi kallar dem "extrinsisk fingerfärdighet". I detta dokument studerar vi extrinsisk fingerfärdighet i samband med regrasp-operationer, till exempel när man byter från en kraft till ett precisionsgrepp, och vi visar att även enkla gripare är kapabla till omfattande handmanövrering. Vi utvecklar tolv regrasp åtgärder, alla open-loop och handscripted, och utvärdera deras effektivitet med över 1200 prövningar av regrasps och sekvenser av regrasps, för tre olika objekt (se video [2] ). Det långsiktiga målet med detta arbete är att utveckla en allmän repertoar av dessa beteenden, och att förstå hur en sådan repertoar så småningom kan utgöra en allmän manipulationsförmåga.
För närvarande finns det två huvudsakliga metoder för in-hand manipulation, beroende på om metoden förlitar sig på makt extrinsic till handen eller inte REF.
1,175,946
Extrinsic dexterity: In-hand manipulation with external forces
{'venue': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Computer Science', 'Engineering']}
82,975
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Många fotgängardetektorer använder ett regionförslagsnätverk RPN REF som huvuddel av detektorn för att förbättra detektionsnoggrannheten.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,976
Ny smarttelefonteknik ger för första gången en plattform för en ny typ av on-person, insamling av folkhälsodata och även en ny typ av informationsåtgärder på folkhälsoområdet. I sådana insatser är det apparaten genom att automatiskt samla in uppgifter som är relevanta för individens hälsa som utlöser mottagandet av ett informationsmässigt folkhälsoingripande som är relevant för personen i fråga. Detta kommer att möjliggöra mycket mer riktade och personliga folkhälsoinsatser än vad som tidigare varit möjligt. Dessutom utgör sensorbaserad insamling av folkhälsodata i kombination med sådana informativa folkhälsoinsatser den underliggande plattformen för en ny och kraftfull ny form av lärande av folkhälsosystemet. I detta dokument tillhandahåller vi en arkitektur för en sådan sensorbaserad inlärnings folkhälsosystem, i synnerhet en som upprätthåller anonymiteten hos sina enskilda deltagare, vi beskriver dess algoritm för iterativ folkhälsointervention förbättring, och undersöka och ge en utvärdering av dess anonymitet upprätthålla egenskaper.
Vårt tidigare arbete har rapporterat en särskild form av lärande hälso- och sjukvårdssystem, ett lärande folkhälsosystem, som fungerar genom att distribuera informativa folkhälsoinsatser till enskildas smartphones, mäta effekten av folkhälsoinsatser och stegvis göra förbättringar av folkhälsoinsatserna och därigenom göra förbättringar av folkhälsan REF.
34,860,190
A Sensor-based Learning Public Health System
{'venue': 'HICSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,977
Abstract-På lång sikt utveckling avancerade (LTE-A) nätverk, bäraraggregat teknik är införlivad för användarutrustning (Ues) att samtidigt aggregera flera komponenter bärare (CCs) för att uppnå högre överföringshastighet. Många forskningsprojekt för LTE-A-system med bäraraggregeringskonfiguration har koncentrerats på problemet med hantering av radioresurser för nedlänköverföring, främst CC-tilldelning och paketplanering. De flesta tidigare studier har inte ansett att tilldelade CCs i varje UE kan ändras. Dessutom har de inte heller beaktat begränsningen för modulering och kodningssystem, såsom anges i LTE-A-standarder. Deras föreslagna system kan därför begränsa användningen av radioresurser och är inte kompatibla med LTE-A-system. I detta dokument utgår vi från att schemaläggaren kan omfördela CC till varje UE vid varje sändningsintervall och formulera problemet med nedlänksplanering av radioresurser under modulerings- och kodningssystemets begränsning, som har visat sig vara NP-hård. Sedan föreslås ett nytt girigt-baserat system för att maximera systemets genomströmning samtidigt som proportionerlig rättvisa radioresurser fördelas mellan alla UE. Vi visar att detta system kan garantera minst hälften av den optimala lösningens prestanda. Simuleringsresultat visar att vårt föreslagna system överträffar systemen i tidigare studier.
På samma sätt har författarna i REF tagit itu med en nedlänk resurs schemaläggning problem som också tar hänsyn till MCS begränsning för LTE, med en girig-baserad algoritm för att maximera systemets genomströmning.
5,515,342
An Efficient Downlink Radio Resource Allocation with Carrier Aggregation in LTE-Advanced Networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
82,978
När en första fel av noder inträffar i beroende nätverk, en kaskad av fel mellan nätverken inträffar. Tidigare studier fokuserade på slumpmässiga initiala misslyckanden. Här studerar vi robustheten av ömsesidigt beroende nätverk under riktad attack på hög- eller låggradiga noder. Vi introducerar en allmän teknik och visar att problemet med riktad attack i beroende nätverk kan kartläggas till slumpmässiga angrepp i ett par transformerade beroende nätverk. Vi finner att när de högt anslutna noderna är skyddade och har lägre sannolikhet att misslyckas, i motsats till enskaliga fria (SF) nätverk där perkoleringströskeln p c = 0, kopplade SF-nätverk är betydligt mer sårbara med p c betydligt större än noll. Resultatet innebär att beroende nätverk är svåra att försvara genom strategier som att skydda de höggradiga noder som har visat sig vara användbara för att avsevärt förbättra robustheten i enskilda nät.
Riktade attacker mot beroende nätverk har studerats i REF.
12,763,939
Robustness of interdependent networks under targeted attack
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Physics', 'Computer Science', 'Medicine']}
82,979
Att stå ut med vad som motiverar deltagande är ett centralt tema i forskningen om öppen källkodsutveckling (OSS). Vår studie bidrar genom att avslöja hur de olika motivationerna hos OSS-utvecklarna hänger samman, hur dessa motivationer påverkar delaktighet som leder till prestanda och hur tidigare prestanda påverkar efterföljande motivationer. Med utgångspunkt i teorier om inneboende och extrinsisk motivation utvecklar vi en teoretisk modell som relaterar motivation, delaktighet och prestanda hos OSS-utvecklare. Vi utvärderar vår modell med hjälp av enkät- och arkivdata som samlats in från en longitudinell fältstudie av programvaruutvecklare i Apacheprojekten. Våra resultat avslöjar flera viktiga fynd. För det första finner vi att utvecklarnas motiv inte är oberoende utan snarare är relaterade på komplexa sätt. Att få betalt för att bidra till Apacheprojekt är positivt relaterat till utvecklarnas statusmotivationer men negativt relaterat till deras användningsvärdemotivationer. Kanske överraskande, finner vi inga bevis på minskad inneboende motivation i närvaro av extrinsiska motivationer; snarare, status motivationer öka inneboende motivationer. För det andra finner vi att olika motiv påverkar deltagandet på olika sätt. Utvecklarnas bidrags- och statusmotiveringar leder till högre bidragsnivåer än genomsnittet, men motiveringar till användningsvärde leder till lägre bidragsnivåer än genomsnittet, och inneboende motiveringar påverkar inte de genomsnittliga bidragsnivåerna i någon större utsträckning. För det tredje anser vi att utvecklarnas bidragsnivåer har en positiv inverkan på deras resultatrankning. Slutligen, våra resultat tyder på att tidigare resultat ranking förbättra utvecklarnas efterföljande status motivationer.
REF genomförde en studie som visade hur de olika motivationerna hos utvecklare med öppen källkod var sammankopplade, hur dessa motivationer påverkade deltagandet och hur tidigare resultat påverkade efterföljande motivationer.
9,916,105
Understanding the motivations, participation, and performance of open-source software developers: A longitudinal study of the apache projects
{'venue': 'Management Science', 'journal': None, 'mag_field_of_study': ['Economics', 'Computer Science']}
82,980
I Wireless Sensor Networks (WSNs) leder dikning av data mot diskbänken till obalanserad energiförbrukning bland mellanliggande noder vilket resulterar i hög dataförlusthastighet. Användningen av flera mobila datasamlare (MDC) har föreslagits i litteraturen för att mildra sådana problem. MDC bidrar till att uppnå en enhetlig energiförbrukning i hela nätet, fylla luckor i täckningen och minska förseningar i kommunikationen från början till slut, bland annat. Mekanismer för att stödja MDC, t.ex. platsannonsering och ruttunderhåll, inför dock betydande allmänna omkostnader när det gäller energiförbrukning och paketförseningar. I detta dokument föreslår vi en självorganiserande och adaptiv Dynamic Clustering (DCMDC) lösning för att upprätthålla MDCrelay nätverk. Denna lösning bygger på att dela upp nätverket i väl avgränsade kluster som kallas Service Zones (SZs). Lokalisera mobility management trafik till en SZ minskar signalgivning overhead, ruttinställning fördröjning och bandbredd utnyttjande. Nätverkskluster bidrar också till att uppnå skalbarhet och lastbalansering. Mindre nätverkskluster gör buffertspill och energibrist mindre av ett problem. Dessa prestandavinster förväntas stödja uppnåendet av högre informations fullständighet och tillgänglighet samt maximera nätverkets livslängd. Att upprätthålla kontinuerlig konnektivitet mellan MDC och sensornoder ökar dessutom informationens tillgänglighet och giltighet. Prestandaexperiment visar att DCMDC överträffar sin rival i litteraturen. Förutom den förbättrade kvaliteten på informationen förbättrar det föreslagna tillvägagångssättet andelen paketleveranser med upp till 10 %, end-to-end-fördröjningen med upp till 15 %, energiförbrukningen med upp till 53 %, energibalanseringen med upp till 51 %, och förlänger nätets livslängd med upp till 53 %.
I REF utvecklades en självorganiserande och adaptiv klusterlösning för att förbättra sensornätverksprestandan i ett sådant leveransförhållande, fördröjning och livslängd.
40,616,534
Dynamic clustering and management of mobile wireless sensor networks
{'venue': 'Comput. Networks', 'journal': 'Comput. Networks', 'mag_field_of_study': ['Computer Science']}
82,981
Abstract-Mobile ad hoc nätverk har varit ett aktivt forskningsområde i flera år. Hur man kan stimulera samarbete mellan själviska mobila noder, är dock inte väl behandlade ännu. I detta dokument föreslår vi Sprite, ett enkelt, fusksäkert, kreditbaserat system för att stimulera samarbete mellan själviska noder i mobila ad hoc-nätverk. Vårt system ger incitament för mobila noder att samarbeta och rapportera åtgärder ärligt. Jämfört med tidigare tillvägagångssätt, kräver vårt system ingen manipuleringssäker hårdvara på någon nod. Dessutom presenterar vi en formell modell av vårt system och bevisar dess egenskaper. Utvärderingar av en prototypimplementering visar att omkostnaderna för vårt system är små. Simuleringar och analyser visar att mobila noder kan samarbeta och vidarebefordra varandras meddelanden, om inte resursen för varje nod är extremt låg.
I REF utvecklades ett fusksäkert kreditbaserat system för att stimulera samarbete mellan själviska noder i mobila ad hoc-nätverk.
3,103,973
Sprite: a simple, cheat-proof, credit-based system for mobile ad-hoc networks
{'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']}
82,982
Sammanfattning av denna webbsida: Fysisk aktivitetsigenkänning med inbyggda sensorer har möjliggjort många sammanhangsmedvetna tillämpningar inom olika områden, såsom hälso- och sjukvård. Till en början användes en eller flera dedikerade bärbara sensorer för sådana tillämpningar. Men nyligen började många forskare använda mobiltelefoner för detta ändamål, eftersom dessa allestädes närvarande enheter är utrustade med olika sensorer, allt från accelerometrar till magnetiska fältsensorer. I de flesta av de aktuella studierna analyseras sensordata som samlats in för aktivitetsigenkänning offline med hjälp av verktyg för maskininlärning. Det finns dock nu en trend mot att införa aktivitetsigenkänningssystem på dessa enheter på ett online sätt, eftersom moderna mobiltelefoner har blivit mer kraftfulla när det gäller tillgängliga resurser, såsom CPU, minne och batteri. Forskningen om aktivitetsigenkänning offline har granskats i flera tidigare studier i detalj. Arbetet med erkännande av aktiviteter online är dock fortfarande i sin linda och kommer ännu inte att ses över. I det här dokumentet går vi igenom de studier som hittills gjorts för att implementera aktivitetsigenkänningssystem på mobiltelefoner och bara använda deras ombordsensorer. Vi diskuterar olika aspekter av dessa studier. Dessutom diskuterar vi deras begränsningar och lägger fram olika rekommendationer för framtida forskning.
Shoaib m.fl. REF presenterar en översyn av verken med hjälp av igenkänningssystem på smartphones baserat på deras ombordsensorer.
5,724,477
A Survey of Online Activity Recognition Using Mobile Phones
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
82,983
Intelligens är en av de viktigaste aspekterna i utvecklingen av våra framtida samhällen. Alla dessa smarta infrastrukturer, från smarta hem till smarta byggnader till smarta städer, måste stödjas av intelligent strömförsörjning. Smarta nät föreslås för att lösa alla utmaningar i framtidens elförsörjning. I smart grid, för att förverkliga optimal schemaläggning, en SM installeras i varje hem för att samla in nästan-realtids elförbrukning data, som kan användas av verktygen för att erbjuda bättre smarta hemtjänster. Uppgifterna i realtid kan dock avslöja en användares privata information. En motståndare kan spåra applikationens användningsmönster genom att analysera användarens elförbrukningsprofil. I den här artikeln föreslår vi ett integritetsbevarande och effektivt dataaggregationssystem. Vi delar in användare i olika grupper, och varje grupp har en privat blockchain för att registrera sina medlemmars data. För att bevara den inre integriteten inom en grupp använder vi pseudonymer för att dölja användarnas identiteter, och varje användare kan skapa flera pseudonymer och associera sina data med olika pseudonymer. Dessutom används blomfiltret för snabb autentisering. Analysen visar att det föreslagna systemet kan uppfylla säkerhetskraven och uppnå bättre prestanda än andra populära metoder.
För att undvika att ansluta pseudonymen och en användare genom att matcha energiförbrukningen och användarens beteende, i REF, varje användare genererar flera pseudonymer och lämnar in sina strömförbrukningsdata under olika pseudonymer.
46,931,333
Privacy-Preserving and Efficient Aggregation Based on Blockchain for Power Grid Communications in Smart Communities
{'venue': 'IEEE Communications Magazine', 'journal': 'IEEE Communications Magazine', 'mag_field_of_study': ['Computer Science']}
82,984
Abstract-In försvara mot olika nätverksattacker, såsom distribuerade överbelastningsattacker (DDoS) eller maskattacker, ett försvarssystem måste hantera olika nätverksförhållanden och dynamiskt förändra attacker. Därför måste ett bra försvarssystem ha en inbyggd "adaptivt försvar" funktionalitet baserad på kostnadsminimering-adaptivt justera sina konfigurationer enligt nätverkets tillstånd och attackens svårighetsgrad för att minimera den kombinerade kostnaden som införs av falska positiva (missidentifiera normal trafik som attack) och falska negativa (missidentifiera attacktrafik som normalt) när som helst. På så sätt kan det adaptiva försvarssystemet generera färre falsklarm i normala situationer eller vid ljusattacker med avslappnade försvarskonfigurationer, samtidigt som det skyddar ett nätverk eller en server mer kraftfullt under svåra attacker. I denna uppsats presenterar vi konkreta adaptiva försvarssystem design för att försvara mot två stora nätverksattacker: SYN översvämning DDoS attack och Internet mask infektion. Det adaptiva försvaret är en systemdesign på hög nivå som kan byggas på olika underliggande icke adaptiva detektions- och filtreringsalgoritmer, vilket gör det tillämpligt för ett brett spektrum av säkerhetsförsvar. Index Villkor-Anpassat försvar, datorsäkerhet, distribuerad överbelastning (DDoS), Internet mask, SYN översvämning.
Även för ett annat ändamål, Zou et al. REF ] utforskade begreppet "adaptivt försvar" baserat på kostnadsoptimering, där kostnaden infördes av falska positiva och falska negativa.
2,306,296
Adaptive Defense Against Various Network Attacks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
82,986
Även om djupet tenderar att förbättra nätverksprestanda, gör det också gradientbaserad träning svårare eftersom djupare nätverk tenderar att vara mer icke-linjära. Den nyligen föreslagna kunskapsdestilleringsmetoden syftar till att få fram små och snabba modeller, och den har visat att ett studentnätverk kan imitera det mjuka resultatet av ett större lärarnätverk eller ensemble av nätverk. I denna uppsats utvidgar vi denna idé för att möjliggöra utbildning av en student som är djupare och tunnare än läraren, inte bara med hjälp av resultaten utan också de mellanliggande representationer som läraren lärt sig som tips för att förbättra den studerandes utbildningsprocess och slutresultat. Eftersom den studerandes mellanliggande dolda lager i allmänhet kommer att vara mindre än lärarens mellanliggande dolda lager, införs ytterligare parametrar för att kartlägga den studerandes dolda lager till förutsägelsen av läraren dolda lager. Detta gör att man kan träna djupare studenter som kan generalisera bättre eller köra snabbare, en kompromiss som styrs av den valda studentkapaciteten. Till exempel, på CIFAR-10, ett djupt studentnätverk med nästan 10,4 gånger mindre parametrar överträffar ett större, toppmodernt lärarnätverk.
Denna teknik, känd som Knowledge destillation, utökades av Romero et al. Deras FitNets REF använder tekniken för kunskapsdestillering för att träna ett tunt men djupt studentnätverk med hjälp av inte bara resultaten utan också de mellanliggande representationerna av lärarnätverket.
2,723,173
FitNets: Hints for Thin Deep Nets
{'venue': 'ICLR 2015', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,987
Vi presenterar en autoencoder som utnyttjar inlärda representationer för att bättre mäta likheter i datarymden. Genom att kombinera en variantal autoencoder med ett generativt kontradiktoriskt nätverk kan vi använda inlärda funktionsrepresentationer i GAN-dicriminatorn som grund för VAE-rekonstruktionsmålet. Därmed ersätter vi elementvisa fel med funktionsvisa fel för att bättre fånga datadistributionen samtidigt som vi erbjuder invarians mot t.ex. Översättning. Vi tillämpar vår metod på bilder av ansikten och visar att det överträffar VAEs med elementvisa likheter i termer av visuell trohet. Dessutom visar vi att metoden lär sig en inbäddning där hög nivå abstrakta visuella egenskaper (t.ex. bära glasögon) kan ändras med hjälp av enkel aritmetik.
Larsen m.fl. REF presenterade en autokodare som utnyttjar inlärda representationer för att bättre mäta likheter i datarymden.
8,785,311
Autoencoding beyond pixels using a learned similarity metric
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,988
Djupa neurala nätverk kräver stora mängder resurser som gör dem svåra att använda på resursbegränsade enheter såsom Internet-of-thing-enheter. Offloading beräkningar till molnet kan kringgå dessa begränsningar men inför en integritetsrisk eftersom operatören av molnet är inte nödvändigtvis pålitlig. Vi föreslår en teknik som obfuserar datan innan den skickas till fjärrberäkningsnoden. Den obfuscated data är obegriplig för en människa tjuvlyssnare men kan fortfarande klassificeras med en hög noggrannhet av ett neuralt nätverk utbildad på oobfuscated bilder.
Leroux m.fl. REF använder en autoencoder för att obfusca data innan du skickar den till molnet, men den obfuscation de använder är lätt reversibel, som de säger.
44,097,546
Privacy Aware Offloading of Deep Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,989
: Resize en klocka modell (267 anslutna komponenter): Standard icke-uniform skala snedvrider formen på delar av modellen, t.ex. Uppringningen (b). Vår strategi ändrar storlek klockan på ett mer naturligt sätt skyddar dess form (c). d) och e) visa en del av skyddsnätet före och efter storleksändringen. Storleksändring av 3D-modeller kan vara mycket användbart när man skapar nya modeller eller placerar modeller i olika scener. En enhetlig skalning är dock begränsad i sin tillämplighet medan enkel, icke-uniform skalning kan förstöra funktioner och leda till allvarliga visuella artefakter. Vårt mål är att definiera en metod som skyddar modellfunktioner och strukturer vid storleksändring. Vi observerar att normalt, under skalning vissa delar av modellerna är mer sårbara än andra, genomgår oönskade deformation. Vi upptäcker automatiskt sårbara regioner och överför denna information till ett skyddsnät som definieras runt objektet, vilket definierar en sårbarhetskarta. 3D-modellen ändras sedan med hjälp av en rymddeformationsteknik som skalar rutnätet icke-homogent samtidigt som denna karta respekteras. Med hjälp av rymddeformation möjliggör bearbetning av vanliga modeller av konstgjorda objekt som består av flera komponenter och innehåller icke-manifold strukturer. Vi visar att vår teknik ändrar storlek på modeller samtidigt som den dämpar oönskade förvrängningar och skapar modeller som bevarar strukturen och egenskaperna hos de ursprungliga modellerna.
REF presenterar en metod för form-medveten storleksändring av konstgjorda föremål som kan skalas icke-uniformt längs tre huvudaxlar.
14,817,192
Non-homogeneous resizing of complex models
{'venue': "SIGGRAPH Asia '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,990
Deskriptiva namn är en viktig del av läsbar och därmed underhållsbar kod. Nyligen gjorda framsteg på automatiskt föreslå namn för lokala variabler tantaliserar med utsikten att replikera denna framgång med metod och klassnamn. Det är dock mycket svårare att ange namn på metoder och klasser. Detta beror på att bra metod- och klassnamn måste vara funktionellt beskrivande, men att föreslå sådana namn kräver att modellen går utöver det lokala sammanhanget. Vi introducerar en neural probabilistisk språkmodell för källkod som är speciellt utformad för metoden namnge problem. Vår modell lär sig vilka namn som är semantiskt lika genom att tilldela dem till platser, som kallas inbäddningar, i ett högdimensionellt kontinuerligt utrymme, på ett sådant sätt att namn med liknande inbäddningar tenderar att användas i liknande sammanhang. Dessa inbäddningar verkar innehålla semantisk information om polletter, även om de endast lärs av statistiska samtidiga förekomster av polletter. Dessutom introducerar vi en variant av vår modell som, såvitt vi vet, är den första som kan föreslå neologism, namn som inte har dykt upp i tränings corpus. Vi får toppmoderna resultat om metod, klass, och även enklare variabel namngivning uppgifter. Mer allmänt har de kontinuerliga inbäddningar som vi lär oss av vår modell potential för bred tillämpning inom programvaruteknik.
Allamanis m.fl. använder ett log-bilinear neuralt nätverk för att förstå sammanhanget för en metod eller klass och rekommenderar ett representativt namn som inte har dykt upp i tränings corpus REF.
9,279,336
Suggesting accurate method and class names
{'venue': 'ESEC/FSE 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,991
Abstract-In plats-baserade tjänster, användare med plats-medveten mobila enheter kan ställa frågor om sin omgivning var som helst och när som helst. Även om detta allestädes närvarande datorparadigm ger stor bekvämlighet för informationsåtkomst, väcker det också oro över potentiella intrång i användarens plats integritet. För att skydda platsens integritet är ett typiskt tillvägagångssätt att dölja användarplatser i rumsliga regioner baserade på användarspecificerade integritetskrav, och att omvandla platsbaserade frågor till regionbaserade frågor. I detta dokument identifierar och tar vi itu med tre nya frågor som rör denna plats döljande strategi. För det första studerar vi representationen av kamouflageregioner och visar att en cirkulär region i allmänhet leder till en liten resultatstorlek för regionbaserade frågor. För det andra utvecklar vi en mobility-aware position kamouflage teknik för att motstå spår analys attacker. Två kamouflagealgoritmer, nämligen MaxAccu_Cloak och MinComm_Cloak, är utformade utifrån olika prestandamål. Slutligen utvecklar vi en effektiv polynomalgoritm för utvärdering av cirkulär-region-baserade kNN frågor. Två frågebehandlingslägen, nämligen bulk och progressiv, presenteras för att returnera frågeresultat antingen alla på en gång eller på ett stegvist sätt. Experimentella resultat visar att våra föreslagna mobilitet-medveten kamouflage algoritmer avsevärt förbättra kvaliteten på platsen kamouflage i termer av entropi åtgärd utan att kompromissa mycket på fråge latens eller kommunikationskostnad. Dessutom uppnår det progressiva frågebehandlingsläget en kortare svarstid än bulkläget genom att parallellisera frågeutvärderingen och resultatöverföringen.
Xu och al. REF utvecklade en effektiv algoritm för utvärdering av cirkulär-region-baserade kNN-frågor som tillämpar en filtermetod baserad på ett avståndsmått för att effektivt rensa ut POI.
13,929,362
Privacy-Conscious Location-Based Queries in Mobile Environments
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
82,992
Ett av de viktigaste hindren för att använda prediktiva modeller är det faktum att människor inte förstår och litar på dem. Att veta vilka variabler som är viktiga i en modells förutsägelse och hur de kombineras kan vara mycket kraftfullt när det gäller att hjälpa människor att förstå och lita på automatiska beslutssystem. Här föreslår vi tolkningsbara beslut, en ram för att bygga prediktiva modeller som är mycket korrekta, men som också kan tolkas i hög grad. Beslutsuppsättningar är uppsättningar av oberoende regler om så är fallet. Eftersom varje regel kan tillämpas självständigt, är beslutsuppsättningar enkla, koncisa och lätt att tolka. Vi formaliserar beslut som sätter lärande genom en objektiv funktion som samtidigt optimerar noggrannheten och tolkningsbarheten av reglerna. I synnerhet lär sig vår strategi korta, exakta och icke-överlappande regler som täcker hela funktionsutrymmet och uppmärksammar små men viktiga klasser. Dessutom bevisar vi att vårt mål är en icke-monoton submodulär funktion, som vi effektivt optimerar för att hitta en nästan optimal uppsättning regler. Experiment visar att tolkningsbara beslutsuppsättningar är lika exakta vid klassificering som toppmoderna maskininlärningsmetoder. De är också tre gånger mindre i genomsnitt än regelbaserade modeller som lärts genom andra metoder. Slutligen visar resultaten av en användarstudie att människor kan svara på flervalsfrågor om beslutsgränserna för tolkningsbara beslutsuppsättningar och skriva beskrivningar av klasser baserade på dem snabbare och mer exakt än med andra regelbaserade modeller som utformats för tolkningsbarhet. Sammantaget ger vårt ramverk ett nytt tillvägagångssätt för tolkningsbart maskininlärning som balanserar noggrannhet, tolkningsbarhet och beräkningseffektivitet.
Lakkaraju m.fl. Formaliserar beslut sätter lärande som kan generera korta, koncisa och icke-överlappande regler för klassication uppgifter REF.
12,533,380
Interpretable Decision Sets: A Joint Framework for Description and Prediction
{'venue': "KDD '16", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,993
Sensorer kan misslyckas på grund av olika orsaker såsom värme, skadlig aktivitet, miljörisker, utökad användning och brist på kraft. När fler och fler sensorer misslyckas kommer vissa önskade egenskaper såsom barriärtäckning att minska och så småningom falla under önskad nivå. I ett sådant fall måste nätverket repareras. Det är därför önskvärt att ha mekanismer för att övervaka nätverksegenskaperna. I detta dokument är vi intresserade av att mäta kvaliteten på barriärtäckningen. I litteraturen överväger forskarna bara om ett sensornätverk ger barriärtäckning. Detta motsvarar att mäta dess kvalitet som antingen 0 eller 1. Vi anser att kvaliteten på barriärtäckningen inte är binär och föreslår ett mått för mätning. Om den uppmätta kvaliteten inte motsvarar ett önskat värde, identifierar vi ytterligare alla lokala regioner som behöver repareras. De identifierade regionerna är minimala i den meningen att om en av dem inte repareras kommer det resulterande nätet fortfarande att sakna kvalitet. Vi diskuterar också hur man faktiskt reparerar en region.
I REF studerade Chen, Lai och Xuan hur man kan mäta och säkerställa kvaliteten på barriärtäckningen i trådlösa sensornätverk.
738,774
Measuring and guaranteeing quality of barrier-coverage in wireless sensor networks
{'venue': "MobiHoc '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,994
Generativa kontradiktoriska nät (GAN) är bra på att generera realistiska bilder och har utökats för semi-övervakad klassificering. Emellertid, under en två-spelare formulering, befintliga arbete delar konkurrerande roller att identifiera falska prover och förutsäga etiketter via en enda discriminator nätverk, vilket kan leda till oönskade inkompatibilitet. Vi presenterar triple generative adversarial net (Triple-Gan), en flexibel spel-teoretisk ram för klassificering och klass-villkorlig generation i semiövervakad lärande. Triple-Gan består av tre spelare-en generator, en discriminator och en classifier, där generatorn och classifier karakteriserar den villkorliga fördelningen mellan bilder och etiketter, och discriminatorn fokuserar enbart på att identifiera falska bildetikett par. Med utformade verktyg, de distributioner som kännetecknas av klassificerings- och generator båda koncentrera sig till datadistributionen under icke-parametriska antaganden. Vi föreslår vidare opartiska legaliseringsvillkor för att göra klassificerings- och generator starkt kopplade och vissa partiska tekniker för att öka Triple-GAN:s prestanda i praktiken. Våra resultat på flera datauppsättningar visar löftet i halvövervakat lärande, där Triple-Gan uppnår jämförbar eller överlägsen prestanda än toppmoderna klassificeringsresultat bland DGMs; det kan också lösgöra klasser och stilar och smidigt överföra på datanivå via interpolation på latent rymdklass-villkorligt.
Förutom generator och discriminator Li et al. REF använder en klassificeringskod för att uppnå en reglerbar generator.
17,579,179
Triple Generative Adversarial Nets
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,995
Nästan alla vetenskaps- och ingenjörsfält använder sökalgoritmer, som automatiskt utforskar ett sökområde för att hitta högpresterande lösningar: kemister söker genom molekyler för att upptäcka nya läkemedel; ingenjörer söker efter starkare, billigare, säkrare konstruktioner, forskare söker efter modeller som bäst förklarar data, etc. Målet med sökalgoritmer har traditionellt varit att returnera den enskilda lösningen med högsta prestanda i ett sökområde. Här beskriver vi en ny, fundamentalt annorlunda typ av algoritm som är mer användbar eftersom den ger en helhetsbild av hur högpresterande lösningar distribueras i ett sökområde. Det skapar en karta över högpresterande lösningar vid varje punkt i ett utrymme som definieras av dimensioner av variation som en användare får välja. Detta flerdimensionella arkiv av fenotypiska Eliter (MAP-Elites) algoritm belyser sökytor, så att forskare kan förstå hur intressanta attribut av lösningar kombineras för att påverka prestanda, antingen positivt eller, lika av intresse, negativt. Till exempel, ett läkemedelsföretag kan vilja förstå hur prestandaförändringar som storleken på molekyler och deras kostnad-till-produce varierar. MAP-Elites producerar en stor mångfald av högpresterande, men kvalitativt olika lösningar, som kan vara till större hjälp än en enda, högpresterande lösning. Intressant, eftersom MAP-Elites utforskar mer av sökområdet, tenderar den också att hitta en bättre övergripande lösning än toppmoderna sökalgoritmer. Vi demonstrerar fördelarna med denna nya algoritm i tre olika problemområden som sträcker sig från att producera modulära neurala nätverk till att designa simulerade och riktiga mjuka robotar. Eftersom MAPElites (1) belyser förhållandet mellan prestanda och dimensioner av intresse för lösningar, (2) returnerar en uppsättning högpresterande, men ändå olika lösningar, och (3) förbättrar state-of-the-art för att hitta en enda, bästa lösning, kommer det att katalysera framsteg inom alla vetenskaps- och ingenjörsfält. Författarens anmärkning: Detta dokument är ett preliminärt utkast till ett dokument som introducerar MAP-Elites algoritm och utforskar dess möjligheter. Normalt skulle vi inte posta ett så tidigt utkast med endast preliminära experimentella data, men många människor i samhället har hört talas om MAP-Elites, använder det i sina egna papper, och har bett oss om en uppsats som beskriver det så att de kan citera det, hjälpa dem att genomföra MAP-Elites, och som beskriver de experiment vi redan har genomfört med det. Vi vill alltså dela med oss av både detaljerna i denna algoritm och vad vi har lärt oss av våra preliminära experiment. Alla experiment i denna tidning kommer att göras om innan den slutliga versionen av tidningen publiceras, och uppgifterna kan därmed komma att ändras. Varje område inom vetenskap och teknik använder sig av sökalgoritmer, även kallade optimeringsalgoritmer, som automatiskt försöker hitta en högkvalitativ lösning eller uppsättning högkvalitativa lösningar bland ett stort utrymme av möjliga lösningar 1, 2. Sådana algoritmer hittar ofta lösningar som överträffar de designade Fig. 1................................................................ MAP-Elites algoritm söker i ett högdimensionellt utrymme för att hitta den högst presterande lösningen vid varje punkt i ett lågdimensionellt funktionsutrymme, där användaren får välja dimensioner av variation av intresse som definierar det låga dimensionsutrymmet. Vi kallar denna typ av algoritm en "belysningsalgoritm", eftersom det belyser lämpligheten i varje område av funktionen utrymme, inklusive kompromisser mellan prestanda och funktioner av intresse. Till exempel kunde MAP-Elites söka i utrymmet för alla möjliga robotkonstruktioner (ett mycket stort utrymme) för att hitta den snabbaste roboten (ett prestandakriterium) för varje kombination av längd och vikt. av mänskliga ingenjörer 3 : de har utformat antenner som NASA flög till rymden 4, fann patenterbara elektroniska kretsmönster 3, automatiserad vetenskaplig upptäckt 5, och skapade artificiell intelligens för robotar [6] [7] [8] [9] [10] [11] [12] [12] [13] [14] [15]. På grund av deras utbredda användning ger förbättrade sökalgoritmer betydande fördelar för samhället. De flesta sökalgoritmer fokuserar på att hitta en eller en liten uppsättning högkvalitativa lösningar i ett sökområde. Vad som utgör hög kvalitet bestäms av användaren, som anger ett eller några mål som lösningen bör poängsätta högt på. Till exempel, en användare kan vilja lösningar som är högpresterande och låg kostnad, där var och en av dessa desiderata är kvantifierbar mäts antingen med en ekvation eller simulator. Traditionella sökalgoritmer inkluderar klättring av kullar, simulerad glödgning, evolutionära algoritmer, lutningsstigning/nedstigning, Bayesian optimering och multiobjektiva optimeringsalgoritmer 1, 2. Den senare återger en uppsättning lösningar som utgör de bästa kompromisserna mellan mål 16. En delmängd av optimeringsproblem är utmanande eftersom de kräver sökning efter optima i en funktion eller system som antingen är icke-differentiable eller inte kan uttryckas matematiskt, typiskt eftersom ett fysiskt system eller en komplex simulering krävs. Sådana problem kräver "svarta box" optimeringsalgoritmer, som söker efter högpresterande lösningar beväpnade endast med förmågan att bestämma prestandan hos en lösning, men utan tillgång till den utvärderingsfunktion som bestämmer denna prestanda. Vid sådana problem kan man inte använda optimeringsmetoder som kräver att man beräknar gradienten för funktionen, såsom lutningsstigning/uppstigning. En ökänd utmaning i svart box optimering är närvaron av lokala optima (även kallad lokala minima) 1, 2. Ett problem med de flesta sökalgoritmer i denna klass är att de försöker följa en väg som kommer att leda till den bästa globala lösningen genom att förlita sig på heurismen att slumpmässiga förändringar till bra lösningar leder till bättre lösningar. Detta tillvägagångssätt fungerar dock inte för mycket vilseledande problem, eftersom man i sådana problem måste korsa lågpresterande dalar för att hitta den globala optiman, eller bara för att hitta bättre optima 2. Eftersom evolutionära algoritmer är en av de mest framgångsrika-
MAP-Elites algoritm av Mouret och Clune REF kombinerar ett prestandamål f och ett användardefinierat utrymme av funktioner som beskriver kandidatlösningar (som inte krävs av FFA).
14,759,751
Illuminating search spaces by mapping elites
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Biology']}
82,996
Abstract-This paper studerar videoöverföring med hjälp av en multihoming-tjänst i ett heterogent trådlöst åtkomstmedium. Vi föreslår ett energi- och innehållsmedvetet ramverk för videoöverföring som omfattar energibegränsningen av mobila terminaler (MTs) och kraven på tjänstekvalitet (QoS) för videoströmningstillämpningar, och utnyttjar de tillgängliga möjligheterna i ett heterogent trådlöst accessmedium. I det föreslagna ramverket bestämmer MT sändningseffekten för de använda radiogränssnitten, släpper selektivt vissa paket under batterienergibegränsningen, och tilldelar de mest värdefulla paketen till olika radiogränssnitt för att minimera videokvalitetsförvrängningen. För det första är problemet formulerat som MINLP som är känd för att vara NP-hård. Sedan använder vi en bitvis linjärisering och löser problemet med hjälp av en skärplan metod som minskar den tillhörande komplexiteten från MINLP till en serie av MIPS. Slutligen, för praktiskt genomförande i MTs, vi approximerar videoöverföringsramen med hjälp av ett tvåstegsoptimeringsproblem. Numeriska resultat visar att det föreslagna ramverket uppvisar mycket nära prestanda till den exakta problemlösningen. Dessutom erbjuder den föreslagna ramen, till skillnad från de befintliga lösningarna i litteraturen, ett val för önskvärda avvägningar mellan den uppnådda videokvaliteten och MT:s driftsperiod per batteriladdning. Index Terms-Multi-homing videoöverföring, videopaket schemaläggning, heterogen trådlös åtkomst medium, priorityconstrified flera knapsack problem (PC-MKP).
I REF föreslogs en ram för energi- och innehållsmedveten överföring av video i heterogena nät.
15,742,837
Energy and Content Aware Multi-Homing Video Transmission in Heterogeneous Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science']}
82,997
Abstract Traditionellt sett var en flaskhals som hindrade utvecklingen av intelligentare system den begränsade mängden tillgängliga data. Nuförtiden är den totala mängden information nästan oöverskådlig och automatiska dataanalysatorer behövs ännu mer. Den begränsande faktorn är dock att inlärningsalgoritmer inte kan använda alla data för att lära sig inom rimlig tid. För att hantera detta problem har ett nytt område inom maskininlärning uppstått: storskaligt lärande. I detta sammanhang verkar distribuerat lärande vara en lovande forskningslinje eftersom fördelningen av inlärningsprocessen mellan flera arbetsstationer är ett naturligt sätt att skala upp inlärningsalgoritmer. Dessutom gör det möjligt att hantera datamängder som är naturligt fördelade, en frekvent situation i många verkliga applikationer. Denna studie ger viss bakgrund om fördelarna med distribuerade miljöer samt en översikt över distribuerat lärande för att hantera "mycket stora" datamängder.
Två undersökningar REF [226] ger en allmän introduktion av distribuerade maskininlärningsalgoritmer för hantering av big data.
18,503,837
A survey of methods for distributed machine learning
{'venue': 'Progress in Artificial Intelligence', 'journal': 'Progress in Artificial Intelligence', 'mag_field_of_study': ['Computer Science']}
82,998
Att ta fram användbar information från högdimensionella data är en viktig del av dagens statistiska forskning och praxis. Penalized förlust funktion minimization har visat sig vara effektiv för denna uppgift både teoretiskt och empiriskt. Med fördelarna av både regularisering och sparhet, L1-penalized kvadrat felminimering metod Lasso har varit populär i regressionsmodeller och bortom. I detta dokument kombinerar vi olika normer inklusive L1 för att skapa en intelligent påföljd för att lägga till sidoinformation till monteringen av en regressions- eller klassificeringsmodell för att erhålla rimliga uppskattningar. Särskilt introducerar vi familjen Composite Absolute Straffes (CAP), som gör det möjligt att uttrycka en viss gruppering och hierarkiska relationer mellan prediktorerna. Påföljderna för den gemensamma jordbrukspolitiken byggs upp genom att man definierar grupper och kombinerar normpåföljdernas egenskaper på koncernövergripande och koncerninterna nivåer. Grupperat urval förekommer för icke-överlappande grupper. Hierarkiskt variabelt urval uppnås genom att definiera grupper med särskilda överlappande mönster. Vi föreslår att BLASSO och korsvis validering används för att beräkna uppskattningar av den gemensamma jordbrukspolitiken i allmänhet. För en underfamilj av CAP-skattningar som endast omfattar L1 och Lņ-normerna, introducerar vi iCAP-algoritmen för att spåra hela legaliseringsvägen för det grupperade urvalsproblemet. Inom denna underfamilj härleds opartiska uppskattningar av frihetsgraderna (df) så att legaliseringsparametern väljs utan korsvalidering. Den gemensamma jordbrukspolitiken har visat sig förbättra LASSO:s prediktiva resultat i en rad simulerade experiment, inklusive fall med p på n och eventuellt felspecificerade grupperingar. När komplexiteten i en modell är korrekt beräknad, iCAP ses vara parsimonisk i experimenten.
I REF infördes den sammansatta absoluta strafffamiljen (CAP) och en algoritm som kallas iCAP utvecklades.
9,319,285
The composite absolute penalties family for grouped and hierarchical variable selection
{'venue': 'Annals of Statistics 2009, Vol. 37, No. 6A, 3468-3497', 'journal': None, 'mag_field_of_study': ['Mathematics']}
82,999
Populariteten av platsbaserade sociala nätverk ger oss en ny plattform för att förstå användarnas preferenser baserat på deras läge historia. I denna uppsats presenterar vi en plats-baserad och preferens-medveten rekommendationssystem som erbjuder en viss användare en uppsättning av platser (såsom restauranger) inom ett geospatialt intervall med hänsyn till både: 1) Användarpreferenser, som automatiskt lärs från hennes plats historia och 2) Sociala åsikter, som bryts från platsen historia lokala experter. Detta rekommenderade system kan underlätta människors resor inte bara nära sina bostadsområden utan också till en stad som är ny för dem. Eftersom en användare bara kan besöka ett begränsat antal platser, är användarlokaliseringsmatrisen mycket sparsam, vilket leder till en stor utmaning för traditionella samarbetsfiltrering-baserade lokaliseringsrekommendationer system. Problemet blir ännu mer utmanande när människor reser till en ny stad. I detta syfte föreslår vi ett nytt lokaliseringsrekommendationssystem, som består av två huvuddelar: offline-modellering och online-rekommendation. Den offline modellering del modellerar varje individs personliga preferenser med en viktad kategori hierarki (WCH) och härleder expertisen hos varje användare i en stad med avseende på olika kategorier av platser enligt deras läge historia med hjälp av en iterativ inlärningsmodell. Den online-rekommendation del väljer kandidat lokala experter i ett geospatialt intervall som matchar användarens preferenser med hjälp av en preferens-medveten kandidat val algoritm och sedan drar slutsatsen en poäng av kandidat platser baserat på åsikter från de utvalda lokala experter. Slutligen returneras toppk rankade platser som rekommendationer för användaren. Vi utvärderade vårt system med en storskalig verklig datauppsättning som samlats in från Foursquare. Resultaten bekräftar att vår metod erbjuder effektivare rekommendationer än utgångsvärden, samtidigt som den har en god effektivitet när det gäller att ge lokaliseringsrekommendationer.
Ett platsbaserad och preferensmedveten reserekommendationssystem presenteras av upphovsmännen till REF genom att använda en viktad kategorihierarki för att modellera varje individs personliga preferenser, från att lära sig en iterativ inlärningsmodell i deras offline-modul.
15,040,876
Location-based and preference-aware recommendation using sparse geo-social networking data
{'venue': "SIGSPATIAL '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,000
Vi presenterar ett inomhuspositioneringssystem som mäter läget med hjälp av störningar i jordens magnetfält orsakade av strukturella stålelement i en byggnad. Närvaron av dessa stora stålmedlemmar förvränger det geomagnetiska fältet på ett sätt som är rumsligt varierande men tidsmässigt stabilt. För att lokalisera mäter vi magnetfältet med hjälp av en rad e-kompasser och jämför mätningen med en tidigare erhållen magnetisk karta. Vi visar exakthet inom 1 meter 88% av tiden i experiment i två byggnader och över flera våningar i byggnaderna. Vi diskuterar flera begränsningar tekniker som kan upprätthålla noggrannheten när provutrymmet ökar.
I REF föreslås en inomhuslokaliseringsmetod som utnyttjar jordens magnetiska fältstörningar.
6,770,567
Indoor location sensing using geo-magnetism
{'venue': "MobiSys '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,001
Skylinet för en d - dimensionell datauppsättning innehåller de punkter som inte domineras av någon annan punkt på alla dimensioner. Skyline beräkning har nyligen fått stor uppmärksamhet i databasen gemenskap, särskilt för progressiva metoder som snabbt kan returnera de ursprungliga resultaten utan att läsa hela databasen. Alla befintliga algoritmer har dock vissa allvarliga brister som begränsar deras tillämplighet i praktiken. I denna artikel utvecklar vi gren-andbound skyline (BBS), en algoritm baserad på närmaste granne sökning, vilket är I/O optimal, dvs det utför en enda åtkomst endast till de noder som kan innehålla skyline punkter. BBS är enkelt att implementera och stöder alla typer av progressiv bearbetning (t.ex. användarpreferenser, godtycklig dimensionalitet osv.). Dessutom föreslår vi flera intressanta varianter av skyline beräkning, och visar hur BBS kan tillämpas för deras effektiva bearbetning.
I REF, Branch och Bound Skyline (BBS) algoritm föreslås, är denna algoritm baserad på närmaste granne sökning och endast noder som innehåller skyline punkter nås.
207,156,711
Progressive skyline computation in database systems
{'venue': 'TODS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,002
Sammanfattning av denna webbsida: Grid computing är en högpresterande datormiljö för att lösa större krav på beräkning. Grid computing innehåller resurshantering, schemaläggning av uppgifter, säkerhetsproblem, informationshantering och så vidare. Schemaläggning av uppgifter är en grundläggande fråga när det gäller att uppnå hög prestanda i nätdatasystem. Men det är en stor utmaning för effektiv planering algoritm design och genomförande. I detta dokument, en heuristisk metod baserad på partikel svärm optimering algoritm antas för att lösa problem med uppgift schemaläggning i rutnät miljö. Varje partikel representeras av en möjlig lösning, och positionsvektorn omvandlas från den kontinuerliga variabeln till den diskreta variabeln. Detta tillvägagångssätt syftar till att generera ett optimalt schema för att få så kort tid som möjligt att slutföra uppgifterna. Resultaten av simulerade experiment visar att partikelsvärmens optimeringsalgoritm kan få det bättre schemat än den genetiska algoritmen.
Zhang ochchen REF representerade ett heuristiskt tillvägagångssätt baserat på partikel Swarm Algorithm används för att lösa problem med jobbplanering i rutnätsmiljön.
15,895,005
A Task Scheduling Algorithm Based on PSO for Grid Computing
{'venue': None, 'journal': 'International Journal of Computational Intelligence Research', 'mag_field_of_study': ['Computer Science']}
83,003
Abstrakt. Ett av löftena i den tjänsteorienterade arkitekturen (SOA) är att komplexa tjänster enkelt kan komponeras med hjälp av enskilda tjänster från olika tjänsteleverantörer. Enskilda tjänster kan väljas och integreras antingen statiskt eller dynamiskt baserat på tjänsternas funktioner och prestandabegränsningar. För många distribuerade applikationer, körtidens prestanda (t.ex. End-to-end-försening, totalkostnad, tjänstetillförlitlighet och tillgänglighet) av komplexa tjänster är mycket viktiga. I vårt tidigare arbete har vi studerat problemet med serviceval för komplexa tjänster med endast en QoS-begränsning. Detta dokument utvidgar problemet med tjänsteval till flera QoS-begränsningar. Problemet kan modelleras på två sätt: den kombinatoriska modellen och grafmodellen. Den kombinatoriska modellen definierar problemet som multi-dimension multi-choice 0-1 knapsack problem (MMKP). Grafmodellen definierar problemet som multi-constraint optimal väg (MCOP) problem. Vi föreslår algoritmer för båda modellerna och studerar deras prestationer efter testfall. Vi jämför också för- och nackdelarna mellan de två modellerna.
Grafmodellen, å andra sidan, är baserad på den algoritm som föreslås som en lösning på multi-constraint optimal väg problem REF.
1,794,794
Service Selection Algorithms for Composing Complex Services with Multiple QoS Constraints
{'venue': 'ICSOC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,004
Sociala nätverk som Facebook, LinkedIn och Twitter har varit en viktig informationskälla för ett brett spektrum av användare. I Twitter, populär information som anses viktig av samhället propagerar genom nätverket. Att studera innehållets egenskaper i meddelandena blir viktigt för ett antal uppgifter, såsom att bryta nyhetsdetektering, personliga rekommendationer, vänners rekommendationer, känsloanalys och andra. Många forskare vill använda standardverktyg för textbrytning för att förstå meddelanden på Twitter, men den begränsade längden av dessa meddelanden hindrar dem från att användas till sin fulla potential. Vi tar itu med problemet med att använda vanliga ämnesmodeller i mikrobloggningsmiljöer genom att studera hur modellerna kan tränas på datasetet. Vi föreslår flera system för att utbilda en standardämnesmodell och jämföra deras kvalitet och effektivitet genom en uppsättning noggrant utformade experiment ur både kvalitativa och kvantitativa perspektiv. Vi visar att genom att utbilda en ämnesmodell på aggregerade meddelanden kan vi få en högre kvalitet på inlärd modell vilket resulterar i betydligt bättre prestanda i två verkliga klassificeringsproblem. Vi diskuterar också hur den toppmoderna Author-Topic modellen misslyckas med att modellera hierarkiska relationer mellan enheter i sociala medier.
REF fokuserade på att göra ämnesmodeller på Twitter.
14,633,992
Empirical study of topic modeling in Twitter
{'venue': "SOMA '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,005
Konversationell modellering är en viktig uppgift i naturligt språkförståelse och maskinintelligens. Även om tidigare metoder finns, är de ofta begränsade till specifika domäner (t.ex. bokning av en flygbiljett) och kräver handgjorda regler. I detta dokument presenterar vi ett enkelt tillvägagångssätt för denna uppgift som använder den nyligen föreslagna sekvensen till sekvensramar. Vår modell samtalar genom att förutsäga nästa mening med tanke på den föregående meningen eller meningarna i ett samtal. Styrkan i vår modell är att den kan tränas från början till slut och därför kräver mycket färre handgjorda regler. Vi finner att denna enkla modell kan generera enkla konversationer med tanke på en stor konversationsträning dataset. Våra preliminära resultat tyder på att modellen, trots att den optimerar fel objektiv funktion, kan samtala väl. Det kan extrahera kunskap från både en domän specifika dataset, och från en stor, bullriga, och allmänna domän dataset av filmtexter. På en domänspecifik IT helpdesk dataset kan modellen hitta en lösning på ett tekniskt problem via konversationer. På en bullrig open-domain film utskrift dataset, kan modellen utföra enkla former av sunt förnuft resonemang. Som väntat finner vi också att bristen på konsekvens är ett vanligt misslyckande i vår modell.
I REF föreslås en modell för att förutsäga nästa mening med tanke på de tidigare meningarna i en dialog.
12,300,158
A Neural Conversational Model
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,006
Mänskliga användare har svårt att komma ihåg långa kryptografiska nycklar. Därför har forskare under en lång tid undersökt sätt att använda biometriska egenskaper hos användaren snarare än minnesvärd lösenord eller lösenordsfras, i ett försök att producera tuffa och repeterbara kryptografiska nycklar. Vårt mål är att integrera volatiliteten i användarens biometriska egenskaper i den genererade nyckeln, för att skapa nyckeln oförutsägbar för en hacker som saknar viktig kunskap om användarens biometriska egenskaper. I vår tidigare forskning har vi införlivat flera biometriska metoder i den kryptografiska nyckelgenerationen för att ge bättre säkerhet. I detta dokument föreslår vi en effektiv strategi baserad på multimodala biometriska kännetecken (Iris och fingeravtryck) för att generera en säker kryptografisk nyckel, där säkerheten förbättras ytterligare med svårigheten att faktorisera stora tal. Till en början extraheras funktionerna, minutiae-punkterna och texturegenskaperna från fingeravtrycken respektive iris-bilderna. Därefter sammansmältes de extraherade funktionerna på funktionsnivån för att erhålla den multibiometriska mallen. Slutligen används en multibiometriska mall för att generera en 256-bitars kryptografisk nyckel. För experiment har vi använt fingeravtrycksbilderna från allmänt tillgängliga källor och irisbilderna från CASIA Iris-databasen. De experimentella resultaten har visat att den genererade 256-bitars kryptografiska nyckeln kan ge bättre användarautentisering och bättre säkerhet.
I REF föreslogs en metod för att generera en 256-bitars säker kryptografisk nyckel från multibiometriska mallen.
11,667,742
Cryptographic Key Generation from Multiple Biometric Modalities: Fusing Minutiae with Iris Feature
{'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']}
83,007
Abstract-Vi presenterar en ny lösning för realtidshuvud pose uppskattning. Nyckeln till vår metod är en modellbaserad metod baserad på fusion av färg- och flygdjupsdata. Vår metod har flera fördelar jämfört med befintliga estimeringslösningar. Det kräver ingen inledande installation eller kunskap om en färdigbyggd modell eller utbildningsdata. Användningen av ytterligare djupdata leder till en robust lösning, samtidigt som prestandan i realtid bibehålls. Metoden överträffar state-of-the art i flera experiment med hjälp av extrema situationer som plötsliga förändringar i belysning, stora rotationer och snabb rörelse.
REF presenterade en lösning för realtidshuvudet utgör en uppskattning baserad på sammansmältning av färg- och flygdjupsdata.
16,431,710
Robust head pose estimation by fusing time-of-flight depth and color
{'venue': '2010 IEEE International Workshop on Multimedia Signal Processing', 'journal': '2010 IEEE International Workshop on Multimedia Signal Processing', 'mag_field_of_study': ['Computer Science']}
83,008
Abstract-We beskriver Instruction-Set Randomization (ISR), en allmän metod för att skydda system mot alla typer av kodinjicering angrepp. Vi tillämpar Kerckhoffs' princip för att skapa OS processspecifika randomiserade instruktionsuppsättningar (t.ex. maskininstruktioner) av systemet som kör potentiellt sårbar programvara. En angripare som inte vet nyckeln till randomiseringsalgoritmen kommer att injicera kod som är ogiltig för att (randomized) miljö, orsakar en körning undantag. Vårt tillvägagångssätt är tillämpligt på maskinspråksprogram och skript och tolkade språk. Vi diskuterar tre tillvägagångssätt (skydd för Intel x86 körbara program, Perl-skript och SQL-frågor), en från var och en av ovanstående kategorier. Vårt mål är att visa på ISR:s allmängiltighet och tillämplighet som skyddsmekanism. Vår emulatorbaserade prototyp visar genomförbarheten ISR för x86 körbara enheter och bör vara direkt användbar på en lämpligt modifierad processor. Vi visar hur man kan minska emulationsbaserad ISR:s betydande effekt genom att använda flera heuristiker för att begränsa omfattningen av det randomiserade (och tolkade) genomförandet till delar av koden som kan vara mer mottagliga för exploatering. SQL-prototypen består av en SQL-fråga-randomizing proxy som skyddar mot SQL-injicering attacker utan ändringar i databasservrar, mindre ändringar av CGI-skript, och med försumbar prestanda overhead. På samma sätt är prestandastraffet för en randomiserad Perl-tolk minimal. Om prestandaeffekten av vårt föreslagna tillvägagångssätt är godtagbar (dvs. i en redan ställd miljö, i närvaro av programmerbar eller specialiserad hårdvara, eller i tolkade språk), kan det fungera som en bred skyddsmekanism och komplettera andra säkerhetsmekanismer.
De visar också tillämpligheten av metoden för tolkade språk som Perl, och senare SQL REF.
2,121,523
On the General Applicability of Instruction-Set Randomization
{'venue': 'IEEE Transactions on Dependable and Secure Computing', 'journal': 'IEEE Transactions on Dependable and Secure Computing', 'mag_field_of_study': ['Computer Science']}
83,009
I detta dokument presenterar vi en ny metod för minimalt övervakad synonymextraktion. Metoden bygger på ordet inbäddningar och syftar till att presentera en metod för synonymextraktion som är extensibel för olika språk. Vi rapporterar experiment med ordvektorer tränade genom att använda både den kontinuerliga bag-of-words modellen (CBoW) och den skip-gram modellen (SG) undersöka effekterna av olika inställningar med avseende på den kontextuella fönsterstorlek, antal dimensioner och typ av ordvektorer. Vi analyserar de ordkategorier som är (kosina) liknande i vektorutrymmet, visar att cosinus likhet på egen hand är en dålig indikator för att avgöra om två ord är synonyma. I detta sammanhang föreslår vi en ny åtgärd, relativ cosinuslikhet, för att beräkna likhet i förhållande till andra cosinusliknande ord i corpus. Vi visar att beräkna likhet i förhållande till andra ord ökar precisionen i extraktionen. Vi experimenterar också med att kombinera likhetspoäng från olika utbildade vektorer och utforskar fördelarna med att använda en del av talken som ett sätt att införa viss ljusövervakning, vilket underlättar extraktionen. Vi utför både inneboende och extrinsic utvärdering på vårt slutliga system: inneboende utvärdering utförs manuellt av två mänskliga utvärderare och vi använder resultatet av vårt system i en maskinöversättning uppgift för extrinsic utvärdering, visar att de extraherade synonymer förbättra utvärderingen metrisk.
Mer nyligen, REF föreslog minimalt övervakad synonym extraktion metod baserad på neurala ord inbäddningar som sammanställs med kontinuerlig påse-of-words modell (CBoW) och hoppa-gram modell (SG).
15,090,280
A Minimally Supervised Approach for Synonym Extraction with Word Embeddings
{'venue': None, 'journal': 'The Prague Bulletin of Mathematical Linguistics', 'mag_field_of_study': ['Computer Science']}
83,010
Abstract-Automatiserad vävnad karakterisering är en av de mest avgörande komponenterna i en datorstödd diagnos (CAD) system för interstitiella lungsjukdomar (ILDs). Även om mycket forskning har bedrivits inom detta område är problemet fortfarande ett problem. Djupt lärande tekniker har nyligen uppnått imponerande resultat i en mängd olika datorseende problem, vilket ökar förväntningarna på att de kan tillämpas inom andra områden, såsom medicinsk bildanalys. I detta dokument föreslår och utvärderar vi ett konvolutionellt neuralt nätverk (CNN), utformat för klassificering av ILD-mönster. Det föreslagna nätverket består av 5 konvolutionslager med 2 2 kärnor och LeakyReLU aktiveringar, följt av genomsnittlig poolning med storlek som motsvarar storleken på de slutliga funktionskartorna och tre täta lager. Det sista täta skiktet har 7 utgångar, motsvarande de klasser som beaktas: friskt, malet glas opacitet (GGO), mikronodules, konsolidering, reticulation, honung combing och en kombination av GGO / retaticulation. För att träna och utvärdera CNN använde vi en datauppsättning på 14696 bildlappar, härledda av 120 datortomografier från olika skannrar och sjukhus. Såvitt vi vet är detta det första djupa CNN som utformats för det specifika problemet. En jämförande analys visade att det föreslagna CNN var effektivt i förhållande till tidigare metoder i en utmanande datauppsättning. Klassificeringen prestanda ( ) visade potentialen av CNNs i att analysera lungmönster. I det framtida arbetet ingår att utvidga CNN till tredimensionella data från CT-volymskanning och integrera den föreslagna metoden i ett CAD-system som syftar till att tillhandahålla differentialdiagnos för ILD som ett stödverktyg för radiologer.
I REF föreslås en särskilt utformad CNN-arkitektur för klassificering av ILD-mönster.
206,749,561
Lung Pattern Classification for Interstitial Lung Diseases Using a Deep Convolutional Neural Network
{'venue': 'IEEE Transactions on Medical Imaging', 'journal': 'IEEE Transactions on Medical Imaging', 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,011
Abstract-Resilience till paketförlust är ett kritiskt krav i prediktiv videokodning för överföring över paket-switched nätverk, eftersom förutsägelsen loop propagerar fel och orsakar betydande försämring i videokvalitet. Detta arbete föreslår en algoritm för att optimalt uppskatta den totala snedvridningen av dekoderramrekonstruktion på grund av kvantisering, felutbredning och fel döljning. Metoden beräknar rekursivt den totala distorsion av dekoder vid precision på pixelnivå för att korrekt redogöra för rumslig och temporal felutbredning. Uppskattningens noggrannhet visas genom simuleringsresultat. Uppskattningen är integrerad i en hastighetssnedvridning (RD)-baserad ram för optimal övergång mellan intra-kodning och inter-kodning lägen per makroblock. Kostnaden i beräkningskomplex är blygsam. Ramen utvidgas ytterligare för att på bästa sätt utnyttja återkoppling/godkännandeinformation från mottagaren/nätverket. Simuleringsresultat både med och utan en återkopplingskanal visar att exakt uppskattning av distorsion gör det möjligt för kodaren att uppnå betydande och konsekventa vinster i PSNR i förhållande till kända state-of-the-art RD- och icke-RD-baserade metoder för byte av läge.
Arbetet i REF föreslår en algoritm för att optimalt uppskatta den totala snedvridningen av dekoderramrekonstruktion på grund av kvantisering, felutbredning och feldöljning.
1,408,385
Video coding with optimal inter/intra-mode switching for packet loss resilience
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
83,012
Vi visar att relationsextraktion kan reduceras till att svara på enkla frågor om läsförståelse, genom att koppla en eller flera frågor på ett naturligt språk till varje relations kortplats. Denna minskning har flera fördelar: vi kan (1) lära sig relationsextraktion modeller genom att utöka de senaste neurala läsförståelse tekniker, (2) bygga mycket stora träningsset för dessa modeller genom att kombinera relationsspecifika crowd-sourced frågor med avlägsen övervakning, och även (3) göra noll-shot lärande genom att extrahera nya relationstyper som endast specificeras vid test-tid, för vilka vi inte har några märkta utbildningsexempel. Experiment på en Wikipedia slot-fyllning uppgift visar att metoden kan generalisera till nya frågor för kända relationstyper med hög noggrannhet, och att noll-shot generalisering till osynliga relationstyper är möjligt, på lägre noggrannhetsnivåer, sätta ribban för framtida arbete på denna uppgift.
REF minskade relationsutdragningen till att svara på enkla frågor om läsförståelse.
793,385
Zero-Shot Relation Extraction via Reading Comprehension
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,013
KUNSKAPSSYSTEMET syftar till att automatisera den tråkiga processen att extrahera stora samlingar av fakta (t.ex. namn på forskare eller politiker) från webben på ett oövervakat, domänoberoende och skalbart sätt. Dokumentet ger en översikt över VET-ITALLs nya arkitektur- och designprinciper och betonar dess distinkta förmåga att extrahera information utan några handmärkta utbildningsexempel. I sin första större körning, VET-ITALL extraherade över 50.000 fakta, men föreslog en utmaning: Hur kan vi förbättra VET-ITALLs minne och utvinningshastighet utan att offra precision? I detta dokument presenteras tre olika sätt att ta itu med denna utmaning och utvärdera deras resultat. Mönster Inlärning lär sig domänspecifika extraktionsregler, som möjliggör ytterligare extraktioner. Underklass Extraction identifierar automatiskt underklasser för att öka återkallandet. Lista Extraction lokaliserar listor över klassfall, lär sig en "wraper" för varje lista, och extraherar element i varje lista. Eftersom varje metod bootstraps från VETITALLs domänoberoende metoder, eliminerar metoderna även handmärkta träningsexempel. Papperet rapporterar om experiment, fokuserade på namngiven-enhet extraktion, som mäter den relativa effekten av varje metod och visar sin synergi. I konserten gav våra metoder VET-ITALL en 4-faldig till 8-faldig ökning av minne, samtidigt som hög precision, och upptäckte över 10.000 städer som saknades från Tipster Gazetteer.
Bland det senaste arbetet i detta ämne, är värt att nämna REF, där författarna introducerade KnowItAll, ett system som kan extrahera information från webben utan handmärkt utbildning exempel.
7,162,988
Unsupervised Named-Entity Extraction from the Web: An Experimental Study
{'venue': 'ARTIFICIAL INTELLIGENCE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,014
Vi har en stark koppling mellan PAC-bayesianska gränser och Bayesians marginella sannolikhet. Det vill säga, för den negativa log-likelihood förlust funktion, visar vi att minimeringen av PAC-bayesian generalization gränser maximerar Bayesian marginell sannolikhet. Detta ger en alternativ förklaring till Bayesian Occams rakhyvelkriterier, under antagandet att data genereras av en i.i.d. distribution. Dessutom, eftersom den negativa log-likelihood är en obegränsad förlust funktion, vi motivera och föreslå en PAC-Bayesian teorem skräddarsydd för sub-Gamma förlust familj, och vi visar att vår strategi är bra på klassiska Bayesian linjär regression uppgifter.
PAC-bayesianska gränser för NLL förlust funktion är intimt relaterade till lärande Bayesian inference REF.
930,133
PAC-Bayesian Theory Meets Bayesian Inference
{'venue': 'Advances in Neural Information Processing Systems 29 (NIPS 2016), p. 1884-1892', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,015
Abstract-A Quality-of-Service (QoS) routing protokoll är utvecklat för mobila ad hoc-nätverk. Det kan etablera QoS-rutter med reserverad bandbredd per flöde i ett nätverk som använder TDMA. En effektiv algoritm för att beräkna end-to-end bandbredd på en bana utvecklas och används tillsammans med rutt upptäckt mekanism AODV för att ställa in QoS-rutter. I våra simuleringar producerar QoS routing protokollet högre genomströmning och lägre fördröjning än dess bästa-ansträngning motsvarighet.
Chenxi och Corson REF har utvecklat ett QoS routing-protokoll för ad hoc-nätverk med hjälp av TDMA.
5,543,407
QoS routing for mobile ad hoc networks
{'venue': 'Proceedings.Twenty-First Annual Joint Conference of the IEEE Computer and Communications Societies', 'journal': 'Proceedings.Twenty-First Annual Joint Conference of the IEEE Computer and Communications Societies', 'mag_field_of_study': ['Computer Science']}
83,016
Vi introducerar begreppet dynamisk bild, en ny kompakt representation av videor användbara för videoanalys, särskilt när konvolutionella neurala nätverk (CNN) används. Den dynamiska bilden är baserad på rankning pooling koncept och erhålls genom parametrarna för en rankning maskin som kodar temporal utveckling av ramar video. Dynamiska bilder erhålls genom direkt tillämpning av rankning pooling på rå bild pixlar i en video som producerar en enda RGB-bild per video. Denna idé är enkel men kraftfull eftersom den möjliggör användning av befintliga CNN-modeller direkt på videodata med finjustering. Vi presenterar en effektiv och effektiv approximativ rank pooling operatör, påskyndar det upp order av magnitud jämfört med rank pooling. Vår nya approximativa rankning av CNN-skiktet gör det möjligt för oss att generalisera dynamiska bilder till dynamiska funktionskartor och vi demonstrerar kraften i våra nya representationer på standardriktmärken i åtgärdsigenkänning för att uppnå toppmodern prestanda.
Bilen m.fl. REF introducerade det dynamiska bildnätverket för att generera dynamiska bilder för actionvideor.
474,607
Dynamic Image Networks for Action Recognition
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
83,017
Peer-to-peer kommunikation har nyligen betraktats som en populär fråga för lokala tjänster. Ett innovativt resursfördelningssystem föreslås för att förbättra prestandan hos mobila peer-to-peer, dvs. enhet-till-enhet (D2D), kommunikation som en underlay i downlink (DL) cellulära nätverk. För att optimera systemsumman över resursdelningen av både D2D och cellulära lägen, introducerar vi en omvänd iterativ kombinatorisk auktion som fördelningsmekanism. I auktionen betraktas alla spektrumresurser som en uppsättning resursenheter, som som budgivare konkurrerar om att få företag medan paketen med D2D-paren auktioneras ut som varor i varje auktionsrunda. Först formulerar vi värderingen av varje resursenhet, som en grund för den föreslagna auktionen. Och sedan en detaljerad icke-monotonisk fallande pris auktionsalgoritm förklaras beroende på den nyttofunktion som står för kanalvinsten från D2D och kostnaderna för systemet. Vidare bevisar vi att det föreslagna auktionsbaserade systemet är fusksäkert och konvergerar i ett begränsat antal itereringsrundor. Vi förklarar icke-monotonicitet i prisuppdateringsprocessen och visar lägre komplexitet jämfört med en traditionell kombinatorisk tilldelning. Simuleringsresultaten visar att algoritmen effektivt leder till en bra prestanda på systemets summeringshastighet.
I REF tog författarna itu med problemet med resurstilldelning via nedlänk för användarna i D2D och mobil kommunikation, genom att föreslå en omvänd iterativ baserad kombinatorisk auktionsmetod.
13,233,075
Efficiency Resource Allocation for Device-to-Device Underlay Communication Systems: A Reverse Iterative Combinatorial Auction Based Approach
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,018
Vi föreslår SWAN, en statslös nätverksmodell som använder distribuerade styralgoritmer för att leverera servicedifferentiering i mobila trådlösa ad hoc-nätverk på ett enkelt, skalbart och robust sätt. Den föreslagna arkitekturen är utformad för att hantera både UDP-trafik i realtid och bästa ansträngning UDP- och TCP-trafik utan behov av införande och hantering av information per flöde i nätverket. SWAN stöder end-to-end-styralgoritmer som i första hand bygger på effektiv drift av TCP/IP-protokoll. SWAN använder sig särskilt av lokal hastighetskontroll för bästa ansträngningstrafik och avsändarebaserad tillträdeskontroll för UDP-trafik i realtid. Explicit anmälan om överbelastning (ECN) används för att dynamiskt reglera tillåtna realtidssessioner mot bakgrund av nätverksdynamiken som orsakas av rörlighet eller trafiköverbelastningsförhållanden. SWAN kräver inte stöd av en QOS-kompatibel MAC för att leverera servicedifferentiering. I stället byggs realtidstjänster med hjälp av befintlig trådlös MAC-teknik med bästa möjliga ansträngning. Simulering, analys och resultat från en experimentell trådlös testbädd visar att realtidstillämpningar upplever låga och stabila fördröjningar under olika multihop-, trafik- och mobilitetsförhållanden. Index Terms-Service differentiering, servicekvalitet, trådlösa ad hoc-nätverk. ae 192 (f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, Serbien och Montenegro, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f. jugoslaviska republiken Makedonien, f.d. jugoslaviska republiken Makedonien, f.d.
I arbetet REF föreslås SWAN, en statslös nätverksmodell som använder distribuerade kontrollalgoritmer för att leverera servicedifferentiering.
9,235,640
Supporting service differentiation for real-time and best-effort traffic in stateless wireless ad hoc networks (SWAN
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,019
Med den senaste tidens framsteg i grafik, har det blivit mer dragbart att träna modeller på syntetiska bilder, potentiellt undvika behovet av dyra kommentarer. Att lära sig av syntetiska bilder kan dock inte uppnå önskad prestanda på grund av ett gap mellan syntetiska och verkliga bilddistributioner. För att minska detta gap föreslår vi Simulated+Oövervakad (S+U) inlärning, där uppgiften är att lära sig en modell för att förbättra realismen i en simulators utdata med hjälp av omärkta verkliga data, samtidigt som annotationsinformationen från simulatorn bevaras. Vi utvecklar en metod för S+U-inlärning som använder ett kontradiktoriskt nätverk som liknar Generative Adversarial Networks (GANS), men med syntetiska bilder som ingångar istället för slumpmässiga vektorer. Vi gör flera viktiga ändringar i standarden GAN algoritm för att bevara kommentarer, undvika artefakter, och stabilisera utbildning: (i) en "självreglering" term, (ii) en lokal kontrarimal förlust, och (iii) uppdatera discriminator med hjälp av en historia av förfinade bilder. Vi visar att detta möjliggör generering av mycket realistiska bilder, som vi demonstrerar både kvalitativt och med en användarstudie. Vi utvärderar kvantitativt de bilder som genereras av träningsmodeller för blickuppskattning och handuppskattning. Vi visar en betydande förbättring jämfört med att använda syntetiska bilder, och uppnå state-of-the-art resultat på MPIIGaze dataset utan någon märkt verkliga data.
REF genomför utbildning om både verkliga bilder och syntetiska bilder kartlagda i domänen realistiska bilder med hjälp av en GAN för blick och hand pose uppskattning.
8,229,065
Learning from Simulated and Unsupervised Images through Adversarial Training
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
83,020
Analys av blockchain data är användbar för både scienti c forskning och kommersiella tillämpningar. Vi presenterar BlockSci, en mjukvaruplattform med öppen källkod för blockchainanalys. BlockSci är mångsidigt i sitt stöd för olika blockkedjor och analysuppgifter. Det innehåller en in-minne, analytisk (snarare än transaktions) databas, vilket gör det flera hundra gånger snabbare än befintliga verktyg. Vi beskriver BlockScis design och presenterar fyra analyser som illustrerar dess möjligheter. Detta är ett arbetsdokument som åtföljer den första offentliga utgåvan av BlockSci, tillgänglig på github.com/citp/BlockSci. Vi söker input från samhället för att vidareutveckla programvaran och utforska andra potentiella tillämpningar.
föreslagna BlockSci REF, en öppen källkod, skalbar blockkedjeanalyssystem som stöder olika blockkedjor och analysuppgifter.
41,502,911
BlockSci: Design and applications of a blockchain analysis platform
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,021
Abstract-Acstreasingly allmänt förekommande kommunikationsnät och konnektivitet via bärbara enheter har skapat en mängd applikationer där källor, till exempel människor och miljösensorer, skickar uppdateringar av sin status till intresserade mottagare. Dessa program vill att statusuppdateringar hos mottagarna ska vara så lägliga som möjligt, men detta begränsas vanligtvis av begränsade nätverksresurser. I detta dokument använder vi en tidsgenomsnittsåldersmått för prestandautvärdering av statusuppdateringssystem. Vi härleder allmänna metoder för att beräkna åldersmåttet som kan tillämpas på en bred klass av servicesystem. Vi tillämpar dessa metoder för att köteoretiska systemabstractioner som består av en källa, en serviceanläggning och monitorer, med modellen för serviceanläggningen (fysiska begränsningar) en given. Ködisciplinen för först till kvarn (FCFS) utforskas. Vi visar att det finns en optimal hastighet där en källa måste generera sin information för att behålla sin status så snabbt som möjligt vid alla sina övervakare. Denna hastighet skiljer sig från dem som maximerar utnyttjandet (genomströmning) eller minimerar leveransen av statuspaket. Medan våra abstraktioner är enklare än deras verkliga motsvarigheter, de insikter som erhållits, tror vi, är en användbar utgångspunkt för att förstå och utforma system som stöder realtidsstatusuppdateringar.
Det visades i REF att det finns en optimal genereringshastighet för statusuppdateringarna för att minimera den genomsnittliga AoI, som skiljer sig från dem som kan maximera genomströmningen eller minimera fördröjningen.
12,810,772
Real-time status: How often should one update?
{'venue': '2012 Proceedings IEEE INFOCOM', 'journal': '2012 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
83,022
Bakgrund: Under de senaste åren, biologiska händelser utvinning har uppstått som en viktig naturlig språkbearbetning uppgift, syftar till att ta itu med problemet med överbelastning av information i tillgång till molekylärbiologi litteratur. BioNLP:s gemensamma uppgiftstävlingar har bidragit avsevärt till detta nya intresse. Den första tävlingen (BioNLP'09) fokuserade på att utvinna biologiska händelser ur Medline abstracts från en smal domän, medan temat för den senaste tävlingen (BioNLP-ST'11) var generalisering och ett bredare spektrum av texttyper, händelsetyper och ämnesområden övervägdes. Vi ser händelseextrahering som en byggsten i större diskurstolkning och föreslår en tvåfas, språkligt grundad, regelbaserad metodik. I den första fasen består en allmän, underspecificerad semantisk tolkning av syntaktiska beroendeförhållanden nedifrån och upp. Begreppet inbäddning ligger till grund för denna fas och det informeras om detta genom regler för identifikation av utlösare och argument. Samreferensresolutionen genomförs också i detta steg, vilket gör det möjligt att ta fram inter-sentiella förbindelser. Den andra fasen handlar om att begränsa den semantiska tolkning som blir följden genom gemensamma uppgiftsspecifikationer. Vi utvärderade vår allmänna metodik för grundläggande biologiska händelser utvinning och spekulation / negation uppgifter i tre huvudspår av BioNLP-ST'11 (GENIA, EPI, och ID). Vi uppnådde konkurrenskraftiga resultat i GENIA och ID-spår, medan våra resultat i EPI spår lämnar utrymme för förbättringar. Ett framträdande drag i vårt system är att dess prestanda över abstracts och artiklar kroppar är stabil. Coreference upplösning resulterar i mindre förbättring av systemets prestanda. På grund av vårt intresse för diskurs-nivå-element, såsom spekulation/negation och samreferens, ger vi en mer detaljerad analys av våra systemprestanda i dessa deluppgifter. Resultaten visar på livskraften hos en robust, språkligt inriktad metod, som tydligt skiljer den allmänna semantiska tolkningen från gemensamma uppgiftsspecifika aspekter, för utvinning av biologiska händelser. Vår felanalys pekar på vissa brister som vi planerar att åtgärda i det framtida arbetet inom vår stegvisa systemutvecklingsmetod. Tillämpning av flera regler för intrasentiell omvandling på meningsfragmenten i den första kolumnen. Syntaktiska beroenden i den andra kolumnen är indata till dessa regler och inbäddande relationer i den tredje kolumnen är utdata. Kilicoglu och Bergler BMC Bioinformatics 2012, 13(Suppl 11):S7
Vissa regelbaserade system har rapporterat konkurrensresultat i denna uppgift, samt REF.
7,926,291
Biological event composition
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,023
En betydande svaghet i de flesta nuvarande djupa konvolutionella neurala nätverk är behovet av att utbilda dem med hjälp av stora mängder manuellt märkta data. I detta arbete föreslår vi en oövervakad ram för att lära sig ett djupt konvolutionellt neuralt nätverk för enkelseende djup förutsägelse, utan att kräva ett förträningsstadium eller kommenterade mark sanningen djup. Vi uppnår detta genom att utbilda nätverket på ett sätt som liknar en autoencoder. Vid träningstiden överväger vi ett par bilder, källa och mål, med liten, känd kamerarörelse mellan de två såsom ett stereopar. Vi utbildar den konvolutionella kodaren för uppgiften att förutsäga djupkartan för källbilden. För att göra det genererar vi uttryckligen en omvänd warp av målbilden med hjälp av det förutsagda djupet och kända inter-view förskjutning, för att rekonstruera källbilden; det fotometriska felet i återuppbyggnaden är återuppbyggnadsförlusten för kodaren. Förvärvet av dessa träningsdata är betydligt enklare än för likvärdiga system, kräver ingen manuell annotering, eller kalibrering av djupsensor till kamera. Vi visar att vårt nätverk utbildat på mindre än hälften av KITTI-datasetet (utan ytterligare förstärkning) ger jämförbar prestanda jämfört med den senaste teknikens övervakade metoder för ensidig djupuppskattning.
Garg m.fl. I REF föreslås att man lär sig en djupuppskattning av CNN med hjälp av projektionsfel till en kalibrerad stereotvilling för övervakning.
299,085
Unsupervised CNN for Single View Depth Estimation: Geometry to the Rescue
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,024
Distribuerade framställningar av ord har visat sig vara mycket användbara i många naturliga språkbearbetningsuppgifter. Deras vädjan är att de kan bidra till att lindra data gleshet problem som är vanliga för övervakad lärande. Metoder för att framkalla dessa representationer kräver endast omärkta språkdata, som är rikliga för många naturliga språk. I detta arbete framkallar vi distribuerade representationer för ett par språk gemensamt. Vi behandlar det som ett inlärningsproblem med flera uppgifter där varje uppgift motsvarar ett enda ord, och uppgiftssamband härrör från samexisterande statistik i tvåspråkiga parallella data. Dessa representationer kan användas för ett antal crosslinguala lärande uppgifter, där en elev kan tränas på annoteringar som finns på ett språk och tillämpas för att testa data på ett annat. Vi visar att våra representationer är informativa genom att använda dem för crosslingual dokumentklassificering, där klassificeringar utbildade på dessa representationer avsevärt överträffar starka baslinjer (t.ex. maskinöversättning) när den tillämpas på ett nytt språk.
REF behandlade uppgiften som ett inlärningsproblem med flera uppgifter där varje uppgift motsvarar ett enda ord, och uppgiftssambandet härrör från kooccurs-statistik i tvåspråkig parallellkorpora.
6,758,088
Inducing Crosslingual Distributed Representations of Words
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,025
dbsfrael-Vårt mål är att erplnre egenskaper nf miljö som ger möjligheter päls caching, prefetching, täckning planering, och resurs reseerratinn.-Vi cnndud en oneniontli mätningsstudie av lokalitet fennmena bland trådlösa Weh användare och deras assoriation mönster på en stor universitet rampw med hjälp av IEEE!3002.11 wirelesc infrastruktur. W e utvärdera prestandan hos olika cacheparadigm, t.ex. cache för en användare. cache kopplad till en access pnint (AP), och peer-to-peer caching. I flera miljöer sådana caching niechanisms kunde han neficial. Till skillnad från andra mätningsstudier i trådbundna nätverk där 1 5 % till 40 % av dokumenten drar 70 % av weh-åtkomsten, nur trace5 indirute, att 13 % av unika LTR,LS drar denna nnher av weli accesses. Dessutom den övergripande idealiska träff ratio nf tlie användarcache, cache ansluten till en åtkomst pnint. och peer-to-peer cache paradigm (där kamrater är ca bosatt inom en AP) är 51%. 55 procent. respektive U%. Vi särskiljer trådlösa klienter som hksed på deras inter-huilding mnheility. deras risiic till APs, deras continunus promenader i den trådlösa infrastrukturen, och deras trådlösa informationsåtkomst under dessa perioder. Vi mndel swnciatinnerna som en Markov kedja använder som.state information ni & t senaste AP-besök. We-ran förutspår med hög prnbabilitet (86%) nästa AP med vilken B trådlös klient! Jag är assnociate. Dessutom finns det ess APs med en hög andel av användare återbesök. Sådana mått kan gynna protwnls och algoritmer som syftar till att impermera prestanda nf den trådlösa infrastrukturen hy lnad halancing, antagning contrnl, och resursreservation acrnsc APs. Tillverkning utgående från material enligt vilket HS-nummer som helst, utom material enligt samma HS-nummer som produkten
Vårt tidigare arbete REF modellerar föreningarna för varje trådlös klient som en Markov-kedja där ett tillstånd motsvarar en AP som kunden har besökt.
52,316,294
Analysis of wireless information locality and association patterns in a campus
{'venue': 'IEEE INFOCOM 2004', 'journal': 'IEEE INFOCOM 2004', 'mag_field_of_study': ['Computer Science']}
83,026
I detta papper presenterar vi en analys av en AltaVista Search Engine frågelogg bestående av cirka 1 miljard poster för sökning begäran under en period av sex veckor. Detta motsvarar nästan 285 miljoner användarsessioner, var och en ett försök att fylla ett enda informationsbehov. Vi presenterar en analys av enskilda frågor, fråge- och frågesessioner. Vi presenterar också resultat av en korrelationsanalys av loggposter, studera samspelet mellan termer inom frågor. Våra data stöder hypotesen att webbanvändare skiljer sig avsevärt från den användare som antas i standardlitteraturen för informationshämtning. Specifikt visar vi att webbanvändare skriver in korta frågor, oftast titta på de första 10 resultaten bara, och sällan ändra frågan. Detta tyder på att traditionella metoder för informationssökning kanske inte fungerar bra för att besvara webbsökningsförfrågningar. Korrelationsanalysen visade att de mest korrelerade posterna är beståndsdelar i fraser. Detta resultat indikerar att det kan vara användbart för sökmotorer att betrakta sökord som delar av fraser även om användaren inte uttryckligen ange dem som sådana.
Silverstein m.fl. REF tittade på viktiga frågemönster i sökmotorn AltaVista.
10,184,913
Analysis of a very large web search engine query log
{'venue': 'SIGF', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,027
Abstrakt. Förstärkning av inlärningsalgoritmer upptäcker policyer som maximerar belöningen, men garanterar inte nödvändigtvis säkerhet under inlärnings- eller genomförandefaser. Vi inför ett nytt tillvägagångssätt för att lära oss optimal politik samtidigt som vi genomdriver egenskaper som uttrycks i temporal logik. Med tanke på den tidslogiska specifikation som lärsystemet ska följa föreslår vi därför att man syntetiserar ett reaktivt system som kallas sköld. Skölden introduceras i den traditionella inlärningsprocessen på två alternativa sätt, beroende på var skölden genomförs. I den första, skölden agerar varje gång den lärande agenten är på väg att fatta ett beslut och ger en lista över säkra åtgärder. På det andra sättet introduceras skölden efter inlärningsagenten. Skölden övervakar åtgärder från eleven och korrigerar dem endast om den valda åtgärden orsakar en överträdelse av specifikationen. Vi diskuterar vilka krav en sköld måste uppfylla för att bevara konvergensgarantierna för eleven. Slutligen visar vi på mångsidigheten i vår strategi för flera utmanande förstärkande inlärningsscenarier.
Temporär logik används i samband med en abstraktion av systemdynamiken för att skydda inlärningsprocessen från osäkra åtgärder i REF.
3,132,647
Safe Reinforcement Learning via Shielding
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,028
Abstrakt. I det här dokumentet studerar vi problemet med halvövervakad bildigenkänning, som är att lära sig klassificerare med både märkta och omärkta bilder. Vi presenterar Deep Co-Training, en djupt lärande baserad metod inspirerad av Co-Training ram [1]. Den ursprungliga Co-Training lär sig två klassificeringar på två vyer som är data från olika källor som beskriver samma fall. För att utvidga detta koncept till djup inlärning, Deep Co-Training tränar flera djupa neurala nätverk för att vara de olika åsikter och utnyttjar kontradiktoriska exempel för att uppmuntra synskillnader, för att förhindra att nätverken kollapsar in i varandra. Som ett resultat av detta ger de samutbildade nätverken olika och kompletterande information om uppgifterna, vilket är nödvändigt för att samutbildningsramen ska uppnå goda resultat. Vi testar vår metod på SVHN, CIFAR-10/100 och ImageNet dataset, och vår metod överträffar de tidigare toppmoderna metoderna med stor marginal.
I en nyligen genomförd strategi utvidgades den gemensamma utbildningsstrategin till att omfatta 2D-djupa nätverk och flera synpunkter, med hjälp av kontradiktoriska exempel för att uppmuntra till att se skillnader för att öka prestandan.
3,966,049
Deep Co-Training for Semi-Supervised Image Recognition
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,030
När streaming av multimediabaserade data som video, ljud och text utförs trafik kommer att vara mer och nätverket blir överbelastade i mobila ad hoc-nätverk. De nuvarande routingprotokollen klarar inte av att hantera denna situation. Det noteras att överbelastning av nätet är den dominerande orsaken till paketförlust, längre fördröjning och fördröjning av jitter i strömmande video. De flesta av de nuvarande routing protokollen är inte utformade för att anpassa sig till trängselkontroll. Vi föreslår ett nytt routingprotokoll, Congestion Adaptive AODV Routing Protocol (CA-AODV), för att ta itu med överbelastningsproblem med tanke på försening, paketförlust och routing overhead. För att utvärdera deras prestanda har vi övervägt mpeg4 för streaming videodata med hjälp av nätverkssimulator (NS2). CA-AODV överträffar nuvarande protokoll i leveransförhållande och fördröjning, samtidigt införa mindre routing protokoll overhead. Resultatet visar att integrering av adaptiva mekanismer för överbelastning med AODV är ett lovande sätt att förbättra prestandan för tung trafikbelastning i multimediabaserade mobila ad hoc-nät.
I REF har ett adaptivt routingprotokoll för överbelastning AODV (CA-AODV) utvecklats för streaming av video i mobila ad hoc-nätverk som är särskilt utformade för multimediaapplikationer.
18,511,813
CA-AODV: Congestion Adaptive AODV Routing Protocol for Streaming Video in Mobile Ad Hoc Networks
{'venue': 'IJCNS', 'journal': 'IJCNS', 'mag_field_of_study': ['Computer Science']}
83,031
Nätverk överlevnad-förmågan att upprätthålla drift när en eller några nätkomponenter misslyckas-är oumbärlig för nuvarande nätverk. I detta dokument karakteriserar vi tre huvudkomponenter när det gäller att skapa nätöverlevnad för ett befintligt nät, nämligen 1) att bestämma nätanslutning, 2) att utöka nätet och 3) att hitta osammanhängande vägar. Vi presenterar en kortfattad översikt över nätverksöverlevnadsalgoritmer, där vi fokuserar på att presentera några polynom-tidsalgoritmer som kan implementeras av utövare och ge referenser till mer involverade algoritmer.
För en översikt över återställningsalgoritmer hänvisar vi till REF.
14,276,831
An Overview of Algorithms for Network Survivability
{'venue': None, 'journal': 'International Scholarly Research Notices', 'mag_field_of_study': ['Computer Science']}
83,032