src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstract-Problemet med visuell spårning utvärdering är sport en stor variation av prestanda åtgärder, och i stor utsträckning lider av brist på samförstånd om vilka åtgärder som bör användas i experiment. Detta gör det svårt att jämföra cross-paper tracker. Dessutom, eftersom vissa åtgärder kan vara mindre effektiva än andra, spårningsresultaten kan vara skev eller partisk mot särskilda spårningsaspekter. I den här artikeln går vi igenom de populära prestationsmåtten och spårar performance visualiseringar och analyserar dem teoretiskt och experimentellt. Vi visar att flera åtgärder är likvärdiga när det gäller den information som de tillhandahåller för att mäta spårare och att vissa är mer spröda än de andra. Baserat på vår analys begränsar vi uppsättningen av potentiella åtgärder till endast två kompletterande åtgärder, som beskriver noggrannhet och robusthet, och på så sätt driver på en homogenisering av spårarutvärderingsmetoden. Dessa två åtgärder kan intuitivt tolkas och visualiseras och har använts av de senaste Visual Object Tracking (VOT) utmaningar som grunden för utvärderingsmetoden.
Många resultatåtgärder har undersökts för att spåra REF.
1,307,764
Visual object tracking performance measures revisited
{'venue': 'IEEE Transactions on Image Processing (March 2016), 1261 - 1274', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
1,021
Det har funnits ett ökande intresse för att anta BlockChain (BC), som ligger till grund för crypto-valuta Bitcoin, i Internet ofs (IoT) för säkerhet och integritet. Men BCs är beräknings dyrt och innebär hög bandbredd overhead och förseningar, som inte är lämpliga för de flesta IoT-enheter. är papper föreslår en lätt BC-baserad arkitektur för sakernas internet som praktiskt taget eliminerar overheads av klassiska BC, samtidigt som de flesta av dess säkerhet och integritet bene ts. IoT enheter benet t från en privat oföränderlig liggare, som fungerar liknande BC men hanteras centralt, för att optimera energiförbrukningen. Höga resurser enheter skapar ett overlay nätverk för att genomföra en allmänt tillgänglig distribuerad BC som garanterar end-to-end säkerhet och integritet. Den föreslagna arkitekturen använder distribuerat förtroende för att minska handläggningstiden för blockvalidering. Vi utforskar vår strategi i ett smart hem som en representativ fallstudie för bredare IoT-tillämpningar. Utvärderingen av arkitekturen enligt gemensamma hotmodeller visar att den är effektiv när det gäller att tillhandahålla säkerhet och integritet för IoT-tillämpningar. Simuleringar visar att vår metod minskar paket och bearbetning overhead avsevärt jämfört med BC-implementationen som används i Bitcoin.
Raja och al. REF visar blockchain-baserad arkitektur för smart-hem inställning.
7,058,464
Towards an Optimized BlockChain for IoT
{'venue': "IoTDI '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,022
Cross-Lingual Learning ger en mekanism för att anpassa NLP-verktyg tillgängliga för märkning rika språk för att uppnå liknande uppgifter för etikett-scarce språk. Ett effektivt flerspråkigt verktyg minskar avsevärt kostnaden och ansträngningen för att manuellt kommentera data. I den här artikeln använder vi Recursive Autoencoder arkitektur för att utveckla en Cross Lingual Sentiment Analysis (CLSA) verktyg med hjälp av mening anpassad corpora mellan ett par resursrika (engelska) och resurs fattiga (Hindi) språk. Systemet bygger på antagandet att semantisk likhet mellan olika fraser också innebär känsla likhet i de flesta meningar. Det resulterande systemet analyseras sedan på en nyutvecklad Movie Reviews Dataset i Hindi med etiketter som ges på en betygsskala och jämför prestanda hos vårt system mot befintliga system. Det visas att vårt tillvägagångssätt avsevärt överträffar toppmoderna system för Sentimentanalys, särskilt när det är ont om märkta data.
REF använder rekursiv automatisk kodararkitektur för att utveckla ett CLSA-verktyg med meningsanpassat korpora mellan ett resursrikt (engelska) och ett resursfattigt (Hindi) språk.
14,605,915
Cross Lingual Sentiment Analysis using Modified BRAE
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,023
Abstrakt. Bio-relation utvinning (bRE), ett viktigt mål i bio-text gruvdrift, innebär subtasks identifiera samband mellan bio-enheter i text på flera nivåer, t.ex. på artikel, mening eller relationsnivå. En viktig begränsning av nuvarande bRE-system är att de begränsas av tillgången på kommenterad corpora. I detta arbete introducerar vi ett halvövervakat tillvägagångssätt som kan hantera multi-level bRE via strängjämförelser med missmatchningar i strängkärnramen. Vår strängkärna implementerar ett abstraktion steg, som grupperar liknande ord för att generera mer abstrakta enheter, som kan läras med omärkt data. I synnerhet föreslås två oövervakade modeller för att fånga kontextuella (lokala eller globala) semantiska likheter mellan ord från en stor oannoterad corpus. Denna Abstraction-augmented String Kernel (ASK) möjliggör bättre generalisering av mönster inlärda från kommenterade data och ger en enhetlig ram för att lösa bRE med flera grader av detaljer. ASK visar effektiva förbättringar över klassiska strängkärnor på fyra datauppsättningar och uppnår toppmodern bRE prestanda utan behov av komplexa språkliga funktioner.
REF föreslår en abstraction-augmented strängkärna för bio-relation extrahering via ordbäddar.
2,166,081
Semi-Supervised Abstraction-Augmented String Kernel for Multi-Level Bio-Relation Extraction
{'venue': 'ECML/PKDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,024
Detta dokument visar hur morfologisk analys bidrar till att lösa de utmaningar som utvecklingen av en stavningskontroll innebär för ett agglutinativt språk som isiZulu. Det visar hur det stegvisa genomförandet av reglerna för avlägsnande av anbringade föremål kan användas för att härleda ordformulär och förbättra det lexiska och felaktiga återkallandet av systemet. När det gäller stavningskontrollen är de strategier som används huvudsakligen baserade på användningen av reguljära uttryck, och mer specifikt på en process för att hejda.
Bosch och Eiselen REF rapport om en grundläggande stavningskontroll som bygger på en uppsättning reguljära uttryck.
55,428,764
The Effectiveness of morphological rules for an isiZulu spelling checker
{'venue': None, 'journal': 'South African journal of african languages', 'mag_field_of_study': ['Computer Science']}
1,025
I detta dokument föreslår vi en helt oövervakad metod för öppen-domänen enhet extraktion och klustering över frågeloggar. Den underliggande hypotesen är att klasser som definieras av gruvsökning användaraktivitet kan skilja sig avsevärt från dem som normalt över webbdokument, genom att de bättre modellerar användarutrymmet, dvs.. användarnas uppfattning och intressen. Vi visar att vår metod överträffar toppmoderna (semi-)övervakade system baserade antingen på webbdokument eller på frågeloggar (16% vinst på klusteruppgiften). Vi rapporterar också bevis för att vår metod stöder en verklig ansökan, nämligen nyckelord generation för sponsrad sökning.
REF föreslog en oövervakad metod för namngiven enhetsextrahering från webbsökningsloggar.
14,366,546
Open Entity Extraction from Web Search Query Logs
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,026
Djupa neurala nätverk har varit mycket framgångsrika på olika bild, tal, videoigenkänning uppgifter på grund av deras förmåga att modellera djupa strukturer inom data. De är dock fortfarande oöverkomligt dyra att utbilda och ansöker om problem som innehåller miljontals klasser i produktionsskiktet. Baserat på observationen att den viktigaste beräkningen som är gemensam för de flesta neurala nätverkslager är en vektor / matris produkt, föreslår vi en snabb lokalitetskänslig hashing teknik för att approximera den faktiska punkt produkt som gör det möjligt för oss att skala upp utbildning och slutsatser till miljontals output klasser. Vi utvärderar vår teknik på tre olika storskaliga igenkänningsuppgifter och visar att vår strategi kan träna storskaliga modeller i snabbare takt (i form av steg/total tid) jämfört med basmetoder.
En annan modell föreslås i REF, där författarna utvecklar en snabb lokal-känslig hashing teknik för att approximera punkt produkten mellan stora matriser och vektorer i neurala nätverk.
15,147,584
Deep Networks With Large Output Spaces
{'venue': 'ICLR 2015', 'journal': 'arXiv: Neural and Evolutionary Computing', 'mag_field_of_study': ['Computer Science']}
1,027
Nyligen kom Moscibroda och Wattenhofer fram till begreppet schemaläggning komplexitet för att fånga den minsta tid för att framgångsrikt schemalägga alla överföringsförfrågningar enligt den fysiska SINR-modellen. Deras algoritm med en icke-linjär krafttilldelning kan schemalägga starkt anslutna sändningar i smalbandsnätverk med 4 (log ) O n timeslots. I detta dokument generaliserar vi först detta resultat till ultrabredbandsnät. Vi visar den starka konnektivitet schemaläggning komplexitet i UWB nätverk att vara, där m är bearbetningsvinsten. För det andra visar vi att båda dessa polylogaritmiska schemaläggningsresultat uppnås på bekostnad av exponentiell energi komplexitet med lägre gräns ( 2 ) n. Vi visar också att den övre gränsen för energi komplexiteten i smalbandsnät att vara, och för UWB-nätverk kan denna övre gräns minskas med en processvinst faktor. Å andra sidan visar vi att förbättringen av schemaläggningens komplexitet genom godtycklig maktstyrning har sina begränsningar och att olika makttilldelningsstrategier har olika effekter på protokollinterferensmodellerna, vilket ofta försummades i utformningen av trådlösa schemaläggningsalgoritmer. Jämfört med smalbandsnät, även om effekten av aggregerade störningar i UWB-nät är kraftigt minskad, visar vi att de konstanta och linjära krafttilldelningarna i UWB-nät fortfarande är ineffektiva i värsta fall när det gäller schemaläggningskomplexet ( ( / ) n m och ), vilket tyder på att det finns ett behov av en bättre godtycklig makttilldelning. Våra analyser kastar nytt ljus över utformningen av kraftförsörjningsschemat och prestandaanalysen av de trådlösa schemaläggningsalgoritmerna. I energibegränsade trådlösa nät är en avvägning mellan schemaläggningens komplexitet och energikomplexiteten en praktisk fråga. Våra resultat i detta dokument kan direkt tillämpas på andra spread-spectrum nätverk inklusive DS-CDMA och FH-CDMA.
Dessa resultat har generaliserats för att täcka bredbandsnät i REF, och författarna visar också att den totala effektförbrukningen för icke-linjära kraftuppdrag är lägre begränsas av.
15,192,824
The scheduling and energy complexity of strong connectivity in ultra-wideband networks
{'venue': "MSWiM '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,028
Vi beskriver och analyserar en online-algoritm för övervakad inlärning av pseudo-metrics. Algoritmen tar emot par av fall och förutsäger deras likhet enligt en pseudo-metrisk. De pseudometriska vi använder är kvadratiska former parameteriserade av positiva halvdefinita matriser. Kärnan i algoritmen är en uppdateringsregel som baseras på successiva projektioner på den positiva halvdefinita konen och på halvrymdsbegränsningar som följer av exemplen. Vi beskriver en effektiv procedur för att utföra dessa projektioner, härleda ett värsta fall misstag bunden på likhetsprognoser, och diskutera en dubbel version av algoritmen där det är enkelt att införliva kärnan operatörer. Online-algoritmen fungerar också som en byggsten för att härleda en stor-marginalsalgoritm. Vi visar fördelarna med det föreslagna tillvägagångssättet genom att utföra experiment på MNIST-dataset och på dokumentfiltrering.
Den pseudometriska REF-parametern för positiva semidefinita matriser (PSD) är inlärd med en online-uppdateringsregel, som växlar mellan projektioner på PSD och halvrymdsbegränsningar som införts av instansparen.
6,488,984
Online and batch learning of pseudo-metrics
{'venue': "ICML '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,029
I hjärnbarken består lokala kretsar av tiotusentals nervceller, av vilka var och en bildar tusentals synapsförbindelser. Det kanske största hindret för att förstå dessa nätverk är att vi inte har några kopplingsscheman över deras sammankopplingar. Även om vi hade ett partiellt eller fullständigt kopplingsschema, skulle dock förståelsen av nätverket också kräva information om varje nervcells funktion. Här visar vi att relationen mellan struktur och funktion kan studeras i cortex med en kombination av in vivo-fysiologi och nätverk anatomi. Vi använde två-foton kalciumtomografi för att karakterisera en funktionell egenskap-den föredragna stimulansorientering-av en grupp neuroner i mus primära visuella cortex. Storskalig elektronmikroskopi av seriella tunna sektioner användes då för att spåra en del av dessa neuroners lokala nätverk. I överensstämmelse med en förutsägelse från nyligen genomförda fysiologiska experiment fick hämmande interneuroner konvergent anatomisk input från närliggande excitatoriska neuroner med ett brett spektrum av föredragna inriktningar, även om svaga fördomar inte kunde förkastas. Tidigare studier av synapsförbindelserna i cortex har fokuserat på några celler åt gången, så att vi idag bara har partiell information om strukturen av mycket sammankopplade kortikala nätverk. Fram till nyligen förlitade sig anatomister på den glesa märkningen av enskilda neuroner för att spåra de omfattande axonala och dendritiska argorerna hos kortikala neuroner. Synaptiska konnektivitet ursprungligen härleds från överlappningen av axonal och dendritisk arbors 1, ett tillvägagångssätt som förblir givande idag 2,3. Kombinerade fysiologiska och anatomiska studier av kortikala skivor in vitro har utökat denna analys till att omfatta regler för parvis anslutning mellan olika celltyper och kortikala skikt 4-6. Det har hävdats att det kortikala nätverket kan vara slumpmässigt bortom dessa enkla statistiska regler 7, men färska studier tyder på att det kan finnas högre ordning mönster av anslutningar i kortikala nätverk, såsom ömsesidigt sammankopplade trioler av celler 8, och subnätverk av neuroner som är mycket anslutna inom en grupp, men inte mellan grupper 9,10. Även om dessa hypothesize mönster är baserade på in vitro fysiologiska data, de har aldrig visats anatomiskt, inte heller har de varit relaterade till information bearbetning som mäts från neurala responsegenskaper in vivo. Elektronmikroskopi (EM) är ett idealiskt verktyg för att karakterisera den mycket sammankopplade strukturen av kortikala nätverk. Från att visualisera quantal release av synaptiska vesiklar 11 till att generera en komplett kabeldiagram över en modell organism 12, har det lämnat definitiva data för att undersöka förhållandet mellan struktur och funktion i nervsystemet. Elektrofysiologi kombinerat med ljusmikroskopi och serie-sektion EM har tillåtit inspektion av struktur-funktionsrelationer av enskilda celler inom neurala kretsar, såsom hippocampus 13, näthinnan 14,15, thalamus 16 och cortex 17-20. En avgörande skillnad från ljusmikroskopi är att seriesektion EM kan användas för att följa de tredimensionella konturerna av neuronala membran, så att varje given axon eller dendrit kan spåras över hundratals mikrometer utan selektiv, gles färgning av enskilda neuroner. Denna egenskap hos seriell sektion EM har använts för att undersöka små volymer av kortikal vävnad, vanligtvis numrering i tusentals kubikmikrometer, där delar av flera dendriter och axoner rekonstruerades för att undersöka synaptiska relationer bland dem (ref. 21, 22, jämför ref. Detta anslag är avsett att täcka utgifter för studier, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter och experter samt andra administrativa utgifter. Här utnyttjade vi den senaste tidens förbättringar i datahastighet och lagringskapacitet för att utföra seriell sektion EM av en volym som omfattar miljontals kubikmikrometer, tillräckligt för att innehålla stora delar av dendritiska och axonala arbors av mer än 1000 celler. Med denna datamängd, kan vi försöka en provtagning-riktad till en delmängd av funktionellt avbildade celler-av de täta sammankopplingar som finns i ett kortikalt nätverk. I synnerhet testade vi en något kontroversiell förutsägelse från senaste fysiologiska arbete (ref 24-27, jämför refs 28, 29): att hämmande interneuroner i musen primära visuella cortex får tät, konvergent ingång från närliggande excitatoriska (pyramidala) neuroner med mycket varierande föredragna stimulans inriktningar (Fig. 1a).............................................................................................. Vi använde in vivo två-foton kalciumtomografi för att bestämma preferenser för stimulansorientering av en kohort av celler i lager 2/3 av mus primära visuella cortex 27, 30. Efter laddning celler med fluorescerande kalcium indikator Oregon Green BAPTA-1 AM (OGB) 31, vi registrerade neuronal aktivitet som återspeglas av ökningar av intracellulärt kalcium från ett enda plan av celler 186 mm under hjärnytan. Svart och vit bar av olika inriktningar och riktningar presenterades för det bedövade djuret, och de cellulära svaren användes för att generera en karta över orientering preferenser ( Bild. 1b och kompletterande bild 1; Metoder). Vi avslutade in vivo-experimentet genom att samla en bunt bilder från en volym som omgav det kalkbildade planet ( Bild. 1c ; röda, kärl; gröna, nervceller). Vi sedan omedelbart perfunderade djuret och förberedde motsvarande volym av visuell cortex för seriell överföring EM (TEM; Metoder). Efter att ha hittat den kalciumbildade regionen av cortex (Metoder), skär vi en serie av 1 215 tunna sektioner (40-45 nm), orienterade radiellt, i rät vinkel mot det funktionellt avbildade planet (Fig. 1b, c).......................................................................................................... Varje sektion var tillräckligt bred (450 mm) för att omfatta det avbildade planet, och tillräckligt hög (350 mm) för att omfatta kortikala lager 1, 2/3 och övre 4 (Fig. 2a, b, Tilläggsfilm 1). Även kortikala axoner kan
Serieial avsnitt avbildning är den enda tekniken för att registrera datavolymer av miljontals kubikmikrometer REF.
4,412,010
Network anatomy and in vivo physiology of visual cortical neurons
{'venue': 'Nature', 'journal': 'Nature', 'mag_field_of_study': ['Biology', 'Medicine']}
1,030
Effektiv systemverifiering kräver goda specifikationer. Bristen på tillräckliga specifikationer kan leda till att kritiska fel, design re-spins, och tids-till-marknads slipsar. I detta papper presenterar vi en ny teknik för gruvdrift tidsspecifikationer från simulering eller utförande spår av en digital hårdvara design. Med tanke på en körning spårar vi återkommande temporal beteenden i spåren som matchar en uppsättning mönstermallar. Därefter syntetiserar vi dem till komplexa mönster genom att slå ihop händelser i tid och kedja mönster med hjälp av inference regler. Vi har designat vår algoritm för att göra den mycket effektiv och meningsfull för digitala kretsar. Dessutom föreslår vi en ram för mönster-mining-diagnos där specifikationer som utvunnits från korrekta och felaktiga spår används för att automatiskt lokalisera ett fel. Vi visar effektiviteten i vår strategi för industriella storlek exempel genom gruvspecifikationer från spår av över en miljon cykler på några minuter och använder dem för att framgångsrikt lokalisera fel av olika typer till inom modulgränser.
Mer nyligen, Li et al. REF föreslog en skalbar teknik för gruvdrift tidsspecifikationer från spår som produceras av digitala system, och visade att de minerade specifikationerna är effektiva i lokalisering buggar i design.
12,754,952
Scalable specification mining for verification and diagnosis
{'venue': "DAC '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,031
ABSTRACT Uppskattningen av trafikstatus i realtid i signalerade korsningar i städer är mycket värdefull för modern trafikstyrning och trafikledning. I detta dokument presenteras en metod för att beräkna kölängden i realtid på grundval av sondfordonens data i den anslutna fordonsmiljön (CV). Sonden data används för att identifiera stopptillstånd av CV:er. Baserat på detta, en kö längd tidsserie som hänvisar till stopptid och positioner CV:n är byggd för att beskriva köningsprocessen i en korsning. Med tanke på den statistiska genomsnittliga trafikhastigheten, kölängdsserierna i historiska cykler, och stopptillstånden för CV ankomstfunktioner i realtid i den aktuella cykeln, beräknas den kritiska kötiden utifrån den linjära monteringsmetoden och kölängden i realtid beräknas utifrån Markov-modellen. Det övergripande systemet testas grundligt och demonstreras i ett realistiskt scenario med olika penetrationsnivåer. Under olika förhållanden testas kölängdsseriens stationaritet av den utökade Dickey-Fuller. Två Markov-modeller baserade på övergångsmatriserna för den aktuella cykeln och både de nuvarande och historiska cyklerna verifieras. Resultaten visar den höga noggrannheten i skattningen av kölängd i realtid, och den föreslagna metoden visar goda resultat när det gäller att hantera slumpmässigheten, särskilt när CV-penetrationsgraden är låg. Anslutet fordon, Markov modell, kölängd, tidsserie.
Liu m.fl. REF använde antalet köande fordon för att beskriva kölängden, och de föreslog en realtidsuppskattningsmetod genom att använda sondfordonens data.
67,874,963
A Real-Time Queue Length Estimation Method Based on Probe Vehicles in CV Environment
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
1,032
Under sakernas internets tidevarv (IoT) samlar och/eller genererar en enorm mängd avkänningsutrustning olika sensoriska data över tid för ett brett spektrum av fält och tillämpningar. Baserat på ansökans karaktär, kommer dessa enheter att resultera i stora eller snabba/realtids dataströmmar. Att tillämpa analyser över sådana dataströmmar för att upptäcka ny information, förutsäga framtida insikter och fatta beslut om kontroll är en avgörande process som gör sakernas internet till ett värdigt paradigm för företag och en teknik som förbättrar livskvaliteten. I detta dokument ger vi en grundlig översikt över hur man använder en klass av avancerade maskininlärningsmetoder, nämligen djupinlärning (DL), för att underlätta analys och lärande inom IoT-domänen. Vi börjar med att formulera IoT-data egenskaper och identifiera två stora behandlingar för IoT-data från ett maskininlärningsperspektiv, nämligen IoT big data analytics och IoT strömmande data analytics. Vi diskuterar också varför DL är ett lovande tillvägagångssätt för att uppnå önskad analys i dessa typer av data och applikationer. Potentialen att använda framväxande DL-tekniker för IoT-dataanalys diskuteras sedan, och dess löften och utmaningar introduceras. Vi presenterar en omfattande bakgrund om olika DL-arkitekturer och algoritmer. Vi analyserar och sammanfattar också större rapporterade forskningsförsök som utnyttjade DL i IoT-domänen. De smarta IoT-enheter som har införlivat DL i sin intelligens bakgrund diskuteras också. DL implementation metoder på dimma och moln centra till stöd för IoT-program är också kartlagda. Slutligen kastar vi ljus över vissa utmaningar och potentiella riktningar för framtida forskning. I slutet av varje avsnitt lyfter vi fram de lärdomar som dragits på grundval av våra experiment och vår genomgång av den senaste litteraturen. Saker, on-device intelligens, IoT big data, snabb dataanalys, molnbaserad analys.
• Paper REF undersöker djupinlärningsprogram i IoT-nätverk för big data och strömanalys.
9,461,213
Deep Learning for IoT Big Data and Streaming Analytics: A Survey
{'venue': 'IEEE Communications Surveys & Tutorials', 'journal': 'IEEE Communications Surveys & Tutorials', 'mag_field_of_study': ['Computer Science']}
1,033
Delade datacenter som använder virtualiserade servrar som byggstenar (t.ex. moln) växer fram som en spännande teknik som ger en beräkningsplattform för kunder utan att ådra sig en brant installationskostnad. Leverantörerna av ett gemensamt datacenter behöver dock intelligenta mekanismer för att hantera brister i resursbehov samt misslyckanden som avsevärt kan minska tillgången på resurser. I detta arbete undersöker vi mekanismer för att säkerställa att ett gemensamt datacenter kan fungera inom en energibudget, samtidigt som man maximerar de totala intäkter som intjänats av leverantören. Vi presenterar BrownMap-metoden som kan säkerställa att datacenter kan hantera både avbrott som minskar den tillgängliga effekten eller med hög arbetsbelastning. BrownMap använder automatisk VM-omstorlek och Live Migration-teknik för att säkerställa att leverantörens totala intäkter maximeras, samtidigt som budgeten uppnås. Vi implementerar BrownMap på ett IBM Power6-kluster och studerar dess effektivitet med hjälp av en spårbaserad utvärdering av en verklig arbetsbelastning. Både teoretiska och experimentella bevis presenteras som fastställer effekten av BrownMap för att maximera intäkterna, samtidigt som en makt budget för delade datacenter.
Verma m.fl. REF kombinerade VM-omstorlek och live-migrering för att säkerställa att datacenter kan hantera både tillfälliga strömavbrott och ökad arbetsbelastning.
7,915,512
BrownMap: enforcing power budget in shared data centers
{'venue': 'Middleware', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,034
Semantisk bildinmålning är en utmanande uppgift där stora saknade regioner måste fyllas utifrån tillgängliga visuella data. Befintliga metoder som endast tar fram information ur en enda bild ger i allmänhet otillfredsställande resultat på grund av bristen på sammanhang på hög nivå. I detta dokument föreslår vi en ny metod för semantisk bildinmålning, som genererar det saknade innehållet genom konditionering av tillgängliga data. Med tanke på en utbildad generativ modell söker vi efter den närmaste kodningen av den skadade bilden i det latenta bildgrenröret med hjälp av vårt sammanhang och tidigare förluster. Denna kodning skickas sedan genom den generativa modellen för att härleda det saknade innehållet. I vår metod är det möjligt att dra slutsatser oavsett hur det saknade innehållet är strukturerat, medan den senaste inlärningsbaserade metoden kräver specifik information om hålen i träningsfasen. Experiment på tre datauppsättningar visar att vår metod framgångsrikt förutspår information i stora saknade regioner och uppnår pixel-nivå fotorealism, avsevärt överträffar de state-of-the-art metoder.
I REF föreslog författarna en ny metod för semantisk bildinmålning.
24,005,817
Semantic Image Inpainting with Deep Generative Models
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
1,035
Abstract-This paper presenterar en metod för obstruktiv sömnapné (OSA) screening baserad på elektrokardiogram (EKG) inspelning under sömn. OSA är en vanlig sömnstörning som orsakas av repetitiva ocklusioner i de övre luftvägarna och detta fenomen kan vanligtvis observeras även i andra perifera system såsom hjärt-kärlsystemet. Sedan extraktion av EKG egenskaper, såsom RR intervall och området för QRS-komplexet, är användbart för att utvärdera sömnapné på icke-invasivt sätt. I den presenterade analysen användes 50 inspelningar från apné Physionet-databasen; data delades upp i två uppsättningar, utbildningen och testuppsättningen, som var och en bestod av 25 inspelningar. En tvåvarig tidsvarierande autoregressiv modell (TVAM) användes för att utvärdera beatby-beat effektspektrala densiteter för både RR-intervallen och QRS komplexa områden. Temporal och spektral funktioner ändrades minut för minut sedan apné annoteringar där ges med denna upplösning. Träningssetet bestod av 4950 apneic och 7127 nonapneic minuter medan testsetet hade 4428 apneic och 7927 nonapneic minuter. Den K-nearest granne (KNN) och neurala nätverk (NN) övervakade lärande klassificerare användes för att klassificera apné och icke apné minuter. Ett sekventiellt framåtval användes för att välja den bästa funktionsundergruppen i en omslagsinställning. Med tio funktioner uppnådde KNN algoritmen en noggrannhet på 88 %, känslighet på 85 % och specificitet på upp till 90 %, medan NN uppnådde noggrannhet på 88 %, känslighet på 89 % och specificitet på 86 %. Utöver den minut-för-minut klassificeringen visade resultaten att de två klassificeringarna kan separera helt (100 %) de normala inspelningarna från de apneiska inspelningarna. Slutligen användes ytterligare en databas med åtta inspelningar som kommenterades som normala eller apneiska för att återigen testa klassificeringarna. Även i denna nya datauppsättning visade resultaten en fullständig separation mellan apneiska och normala inspelningar. Index Termer-Elektrokardiogram, pulsvariation, neurala nätverk, mönsterklassificering, tidsvarierande autoregressiv modell.
Medez et al., studerade över 70 funktioner från varje segment, och skilde apné segment från normala segment med en klassificering noggrannhet på 88% av k -nearest granne (KN) och neurala nätverk REF.
33,891,023
Sleep Apnea Screening by Autoregressive Models From a Single ECG Lead
{'venue': 'IEEE Transactions on Biomedical Engineering', 'journal': 'IEEE Transactions on Biomedical Engineering', 'mag_field_of_study': ['Computer Science', 'Medicine']}
1,036
Abstract-I detta arbete, anser vi ett heterogent nätverk som består av flera makronoder och pico noder. Vårt mål är att associera användare, som tillhör detta nätverk, till en av noderna, samtidigt maximera summan av alla användare. Vi vill också analysera den lastbalansering som uppnås av denna förening. Därför utvecklar vi en ny teoretisk ram för att studera cellförening för nedlänk av multi-cell nätverk och härleda en övre gräns på den uppnåeliga summan. Vi föreslår en dynamisk cellförening heuristic, som uppnår prestanda nära optimal. Slutligen verifierar vi våra resultat genom numeriska utvärderingar och genomför den föreslagna heurismen i en LTE-simulator för att visa dess genomförbarhet.
I REF, en konvex optimering problem formulerades för cell association och en dynamisk räckvidd förlängning algoritm föreslogs för att maximera den minsta hastigheten av användare på nedlänken till HetNet.
33,507,488
Dynamic cell association for downlink sum rate maximization in multi-cell heterogeneous networks
{'venue': '2012 IEEE International Conference on Communications (ICC)', 'journal': '2012 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']}
1,037
Driften av it-infrastrukturer är beroende av både it- och fysiska komponenter, som är föremål för oavsiktliga och avsiktliga försämringar av olika slag. Inom ramen för nätverks- och datorinfrastruktur studerar vi de strategiska interaktionerna mellan en angripare och en försvarare med hjälp av spelteoretiska modeller som tar hänsyn till både cyber- och fysiska komponenter. Angriparen och försvararen optimerar sina individuella verktyg, uttryckt som summor av kostnader och systemtermer. För det första anser vi att en boolesk attack-försvar modell, där cyber och fysiska subinfrastrukturer kan attackeras och förstärkas som enskilda enheter. För det andra anser vi att en komponent attack-försvar modell där deras komponenter kan attackeras och försvaras, och infrastrukturen kräver minsta antal av båda för att fungera. Vi visar att Nash jämvikt under enhetliga kostnader i båda fallen kan beräknas i polynom tid, och det ger hög nivå deterministiska villkor för infrastrukturens överlevnad. När sannolikheten för framgångsrik attack och försvar, och av tillfälliga misslyckanden, införlivas i modellerna, gynnar resultaten angriparen men annars förblir kvalitativt liknande. Detta tillvägagångssätt har motiverats och validerats av våra erfarenheter av UltraScience Nets infrastruktur, som byggdes för att stödja högpresterande nätverksexperiment. De analytiska resultaten är dock mer generella, och vi tillämpar dem på förenklade modeller av moln och högpresterande datorinfrastrukturer.
Dessa formuleringar fångar infrastruktur med ett stort antal komponenter, och är grövre än formuleringar som anser attack och försvar av enskilda cyber och fysiska komponenter REF.
206,295,756
Defense of Cyber Infrastructures Against Cyber-Physical Attacks Using Game-Theoretic Models
{'venue': 'Risk analysis : an official publication of the Society for Risk Analysis', 'journal': 'Risk analysis : an official publication of the Society for Risk Analysis', 'mag_field_of_study': ['Engineering', 'Medicine']}
1,038
Abstrakt. Även om de flesta verk i datorseende använder perspektiv eller andra centrala kameror, har intresset för icke-centrala kameramodeller ökat på senare tid, särskilt när det gäller allsidig vision. Kalibrering och struktur-from-motion algoritmer finns för både, centrala och icke-centrala kameror. En mellanklass kameror har, även om de har mötts ganska ofta, fått mindre uppmärksamhet. Så kallade axialkameror är icke-centrala men deras projektionsstrålar begränsas av existensen av en linje som skär dem alla. Detta är fallet för stereosystem, många icke-centrala katadioptriska kameror och pushbroomkameror till exempel. I detta dokument studerar vi geometrin hos axialkameror och föreslår en kalibreringsmetod för dem. Vi beskriver också de olika axiella katadioptriska konfigurationer som är vanligare och mindre restriktiva än centrala katadioptriska konfigurationer. Slutligen använde vi simuleringar och verkliga experiment för att bevisa vår teoris giltighet.
En mellanliggande klass av kameror är de axialkameror där projektion strålar skär på en linje REF.
11,767,797
Theory and Calibration for Axial Cameras
{'venue': 'INRIA Research Report', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,039
Att upptäcka avvikelser i spatiotemporella trafikdata är ett viktigt forskningsproblem i datautvinnings- och kunskapsupptäcktssamhället. Men såvitt vi vet har upptäckten av relationer, särskilt orsakssamband, bland upptäckta trafikstörningar inte undersökts tidigare. I detta dokument föreslår vi algoritmer som konstruerar yttre kausalitetsträd baserat på tidsbundna och rumsliga egenskaper hos upptäckta avvikelser. Frekventa understrukturer av dessa kausalitetsträd avslöjar inte bara återkommande interaktioner mellan spatiotemporala avvikelser, utan potentiella brister i utformningen av befintliga trafiknät. Effektiviteten och styrkan hos våra algoritmer valideras genom experiment på en mycket stor mängd verkliga taxibanor i ett urbant vägnät.
Anomalt mönsterdetektion från spatio-temporal data är ett populärt ämne inom området datautvinning och kunskapsupptäckt REF.
47,995
Discovering spatio-temporal causal interactions in traffic data streams
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,040
Mänsklig inspektion av defekter i betongtunnelfoder är vanligtvis långsam, mödosam och störande för trafiken. Detta kräver automatiserade alternativ med hjälp av sensorer och datorstödd bearbetning. De konventionella bildmatchningsmetoderna använder endast kostnadsvärdet för den pixel som bearbetas baserat på likhetsmått för att uppskatta en bildmatchningsplats. För att förbättra effektiviteten i bildmatchningen föreslås i detta dokument en bildmatchningsmetod som bygger på kurvorna i kostnadskurvan vid kandidatmatchningspunkter. Detta följs av att ett medianfilter används för att minska matchningsfelen. Dessutom visar experimentella resultat för en verklig tunnel att krökningsmätningen kan välja de matchande punkterna exakt. Författarna har utvecklat en programvara för bildstickning för att skapa ett högupplöst panorama över tunnelfoderytan för att hjälpa till vid felinspektion.
För att förbättra effektiviteten i bildmatchning föreslår referensreferensreferensreferensen en bildmatchningsmetod som bygger på kurvorna i kostnadskurvan vid kandidatmatchningspunkter.
126,135,538
AN IMAGE-MATCHING METHOD BASED ON THE CURVATURE OF COST CURVE FOR PRODUCING TUNNEL LINING PANORAMA
{'venue': None, 'journal': 'Journal of JSCE', 'mag_field_of_study': ['Computer Science']}
1,041
Detta papper presenterar staplade uppmärksamhet nätverk (SANs) som lär sig att svara på frågor naturligt språk från bilder. SAN använder semantisk representation av en fråga som fråga för att söka efter regionerna i en bild som är relaterad till svaret. Vi hävdar att bildfråga svar (QA) ofta kräver flera steg av resonemang. Således utvecklar vi en flera lager SAN där vi frågar en bild flera gånger för att dra slutsatsen svaret gradvis. Experiment som utförts på fyra uppsättningar av QA-bilddata visar att de föreslagna SAN-värdena avsevärt överträffar tidigare toppmoderna metoder. Visualiseringen av uppmärksamhetslagren illustrerar de framsteg som SAN lokaliserar de relevanta visuella ledtrådarna som leder till svaret på frågan lager för lager.
Kanske den uppmärksamhet nätverk mest relaterade till vår är staplade uppmärksamhet nätverk (SAN) REF.
8,849,206
Stacked Attention Networks for Image Question Answering
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,042
Den dynamiska rumsliga omfördelning av individer är en viktig drivkraft för olika spatiotemporala fenomen på geografiska skalor. Det kan synkronisera populationer av samverkande arter, stabilisera dem och diversifiera genpooler [1] [2] [3]. Människors resor är till exempel ansvariga för den geografiska spridningen av infektionssjukdomar hos människor [4] [5] [6] [7] [8] [9]. Mot bakgrund av den ökande internationella handeln, den ökade rörligheten för människor och det överhängande hotet om en influensa A-epidemi 10 är kunskapen om dynamiska och statistiska egenskaper hos resor till människor av grundläggande betydelse. Trots sin avgörande roll är en kvantitativ bedömning av dessa egenskaper på geografiska skalor fortfarande svårfångad, och antagandet att människor dispergerar diffust råder fortfarande i modeller. Här rapporterar vi om en solid och kvantitativ bedömning av human resestatistik genom att analysera spridningen av sedlar i Förenta staterna. Med hjälp av en omfattande datamängd på över en miljon individuella förskjutningar, finner vi att spridning är avvikande på två sätt. För det första förfaller fördelningen av resavstånd som en maktlag, vilket tyder på att banor av sedlar påminner om skalan fria slumpmässiga promenader som kallas Lévy flygningar. För det andra är sannolikheten att stanna kvar i en liten, rumsligt begränsad region under en tid T domineras av algebraiskt långa svansar som dämpar den superdiffusiva spridningen. Vi visar att mänskligt resande kan beskrivas matematiskt på många spatiotemporala skalor genom en tvåparameters slumpmässig gångmodell med en överraskande exakthet, och drar slutsatsen att mänskligt resande på geografiska skalor är en ambivalent och effektivt superdiffusiv process. Kvantitativa aspekter av spridning i ekologi bygger på spridningskurvan, som kvantifierar den relativa frekvensen av resor avstånd för individer som en funktion av geografiskt avstånd 11. En stor klass av spridningskurvor (t.ex. exponentiellt, gaussiskt, sträckt exponentiellt) gör det möjligt att identifiera en typisk längdskala med variansen av förskjutningens längd eller motsvarande storheter. När det tolkas som sannolikheten P(r) att hitta en förskjutning av längden r på kort tid dt, motiverar förekomsten av en typisk längdskala ofta beskrivningen av spridning i termer av diffusionsekvationer på stora spatiotemporala skalor. Om, dock, P(r) saknar en typisk längdskala, det vill säga P(r), r 2(12) b) med b, 2, diffusions approximationen misslyckas. I fysiken kallas slumpmässiga processer med en sådan enstegsfördelning Lévyflygningar [12] [13] [14] [15] [16] (se kompletterande information). Nyligen har det relaterade begreppet långdistansspridning (LDD) etablerats i spridningsekologi 17, med beaktande av observationen att spridningskurvor för ett antal arter visar makt-lag svansar på grund av långdistansrörelser [18] [19] [20] [21]. (I ekologisk litteratur används ofta termen "spridning" i samband med den rumsliga förskjutningen av individer av en art mellan deras geografiska ursprung och platsen för deras första häckningsplats. Här använder vi termen spridning för att hänvisa till geografiska förskjutningar som inträffar på mycket kortare tidsskala, det vill säga på grund av resor med olika transportmedel.) I dag färdas människor på många rumsliga skalor, från några få till tusentals kilometer under korta tidsperioder. Den direkta kvantitativa bedömningen av mänskliga rörelser är dock svår, och det finns ingen statistiskt tillförlitlig uppskattning av mänsklig spridning som omfattar alla rumsliga skalor. Det centrala syftet med detta arbete är att använda data som samlas in på nätet faktura-tracking webbplatser (som övervakar den globala spridningen av ett stort antal enskilda sedlar) för att dra slutsatsen de statistiska egenskaperna hos mänsklig spridning med mycket hög spatiotemporal precision. Vår analys av mänskliga rörelser är baserad på banor av 464,670 dollar sedlar som erhållits från Bill-tracking systemet www.wheresgeorge.com. Vi analyserade spridningen av sedlar i USA, exklusive Alaska och Hawaii. Kärndata består av 1 033 095 rapporter till Bill-tracking webbplats. Från dessa rapporter beräknade vi de geografiska förskjutningarna r 1⁄4 jx 2 2 x 1 j mellan en första (x 1 ) och sekundär (x 2 ) rapportera plats för en banksedel och förfluten tid T mellan på varandra följande rapporter. För att illustrera de kvalitativa egenskaperna hos banksedlar, bild. 1b skildrar korta banor (T, 14 dagar) från tre större städer i USA: Seattle, New York och Jacksonville. Efter deras första inträde i spårningssystemet, de flesta sedlar nästa rapporteras i närheten av den ursprungliga inträdesplats, det vill säga jx 2 2 x 1 j # 10 km (Seattle, 52,7%; New York, 57,7%; Jacksonville, 71,4%). En liten men betydande andel rapporteras dock längre än 800 km (Seattle, 7,8 %; New York, 7,4 %; Jacksonville, 2,9 %). Från totalt 20,540 korta banor med ursprung i USA, mätte vi sannolikheten P(r) för att passera ett avstånd r i ett tidsintervall dT på 1-4 dagar (Fig. 1c)........................................................................................................... Totalt 14,730 (dvs. ett bråk Q 1⁄4 0,71) inträffade sekundära rapporter utanför en kort räckvidd radie L min 1⁄4 10 km. Mellan L min och den ungefärliga genomsnittliga öst-väst-utvidgningen av USA, L max < 3200 km, visar kärnan power-law beteende P(r), r 2(12) b) med en exponent b 1⁄4 0.59^0.02. För r, L min, P (r) ökar linjärt med r, vilket innebär att förskjutningar fördelas jämnt inuti skivan jx 2 2 x 1 j # L min. Vi mätte P(r) för tre klasser av första inträdesplatser: högbefolkade storstadsområden (191 platser, lokalbefolkningen N loc. 120.000), städer av mellanstorlek (1.544 områden, lokalbefolkningen 120.000. Nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, jag, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, 22 000) och småstäder (23 640 platser, lokalbefolkningen N loc, 22 000), varav 35,7 %, 29,1 % respektive 25,2 % av hela befolkningen i Förenta staterna. Infällningen i bild. 1c visar P(r) för dessa klasser. Trots systematiska avvikelser för korta avstånd, alla distributioner visar en algebraisk svans med samma exponent b < 0.6, som bekräftar att den observerade makt-lagen är en inneboende och universell egenskap av spridning. Situationen är emellertid mer komplicerad. Om vi antar att spridningen av sedlar kan beskrivas av en Lévy flygning med en kort tids sannolikhetsfördelning P(r), kan vi uppskatta tiden T eq för en initialt lokaliserad ensemble av sedlar för att nå den stationära fördelningen 22 (kartor i Bild. 1a), erhålla ett värde av T eq < 68 dagar (se Kompletterande information). Efter 2-3 månader borde alltså sedlarna ha nått jämviktsfördelningen. Förvånansvärt nog återspeglar de långvariga spridningsuppgifterna inte en avkoppling inom detta LETTERS
Brockmann forskning om människans rumsliga rörlighet föreslog att fördelningen av resande avstånd förfaller som en makt lag, vilket tyder på att banorna påminner om skalan fria slumpmässiga promenader som kallas Lévy flygningar REF.
4,330,122
The scaling laws of human travel
{'venue': 'Nature', 'journal': 'Nature', 'mag_field_of_study': ['Geography', 'Physics', 'Medicine']}
1,044
I detta dokument definierar vi identififiabilityen av en BIP upp till en grupp av transformationer. Vi härleder nödvändiga och tillräckliga villkor för en sådan identififiability, d.v.s. de villkor under vilka lösningarna kan fastställas unikt fram till omvandlingsgruppen. Genom att tillämpa dessa resultat på BGPC, får vi tillräckligt med förutsättningar för unik återhämtning under flera scenarier, inklusive subrymd, gemensam sparhet, och gleshet modeller. För BGPC med gemensamma gleshets- eller gleshetsbegränsningar utvecklar vi ett förfarande för att beräkna de relevanta omvandlingsgrupperna. Vi ger också nödvändiga villkor i form av snäva nedre gränser på provkomplexiteterna, och demonstrerar tätheten av dessa gränser genom numeriska experiment. Resultaten för BGPC visar inte bara tillämpningen av den föreslagna allmänna ramen för identififiability analys, utan är också av intresse för deras egen rätt.
En begränsning av det tidigare arbetet REF, är att prov komplexiteten i de tillräckliga villkoren är suboptimal.
18,017,366
A Unified Framework for Identifiability Analysis in Bilinear Inverse Problems with Applications to Subspace and Sparsity Models
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,045
Sammanfattning av denna webbsida: Denna artikel presenterar en Successiv Convexification (SCvx) algoritm för att lösa en klass av icke-konvexa optimala kontrollproblem med vissa typer av tillstånd begränsningar. Källor till icke konvexitet kan inkludera icke-linjär dynamik och icke-konvexa tillstånd/kontrollbegränsningar. För att ta itu med den utmaning som icke-konvexitet innebär använder vi oss först av exakt strafffunktion för att hantera den icke-linjära dynamiken. Sedan den föreslagna algoritmen successivt konvexerar problemet via ett projekt-och-linjärisera förfarande. Således en ändlig dimensional konvex programmering subproblem är löst vid varje succession, som kan göras effektivt med snabba Interior Point Method (IPM) lösare. Global konvergens till en lokal optimal visas med vissa konvexitetsantaganden, som är nöjda med ett brett spektrum av optimala kontrollproblem. Den föreslagna algoritmen är särskilt lämplig för att lösa problem med banplanering med kollisionshindrande begränsningar. Genom numeriska simuleringar visar vi att algoritmen konvergerar tillförlitligt efter bara några få successioner. Således med kraftfulla IPM-baserade anpassade lösare, algoritmen kan implementeras ombord för realtid autonoma styrapplikationer.
I REF presenteras en successiv konvexiseringsalgoritm för rörelseplaneringsproblem där dynamiken och hinderbegränsningarna beskrivs med konvexa funktioner.
56,365,693
Successive Convexification of Non-Convex Optimal Control Problems with State Constraints
{'venue': 'IFAC-PapersOnLine, Volume 50, Issue 1, July 2017, Pages 4063-4069, ISSN 2405-8963', 'journal': None, 'mag_field_of_study': ['Mathematics']}
1,046
ABSTRACT Det är önskvärt att larmpaket skickas till diskbänken så snabbt som möjligt i trådlösa sensornätverk. I denna uppsats analyserar vi initialt teorin om förhållandet mellan nätverkskonfigurationer och nätverkslivslängd samt överföringsfördröjning. Sedan föreslår vi en approximativ optimeringsmetod för att minimera den end-to-end fördröjningen med en minskad komplexitet i konfigurationen under förutsättning att nätverkets livslängd förblir större än det angivna målvärdet. En lokal vidarebefordringsmetod som heter Snabb datainsamling för noder Långt bort från diskbänken och långsam datainsamling för noder Nära Sink (FFSC) föreslås. Detta tillvägagångssätt är energieffektivt. Dessutom kan den ytterligare minska förseningen från början till slut. Både den omfattande teoretiska analysen och de experimentella resultaten visar att FFSC:s prestanda är bättre än de metoder som föreslagits i tidigare studier. I förhållande till den direkta speditionsstrategin kan FFSC-metoden minska förseningen med 7,56%-23,16% och öka livslängden med mer än 25 %. Det kan också öka energieffektiviteten så mycket som 18,99 %. I förhållande till strategin med en enda fast tröskel kan FFSC-metoden minska förseningen med 4,16 %–9,79 % och öka energieffektiviteten med 19,28 % samtidigt som den garanterar samma livslängd som de tidigare metoderna. INDEX TERMS Energieffektivitet, reläval, fördröjning, arbetscykel, livslängd.
En snabb datainsamling för noden Faraway handfat och Slow datainsamling för noden Nära sjunka (FFSC) tillvägagångssätt föreslås för att möta energieffektiva, och den end-to-end fördröjningen kan minimeras i Ref. Hoppa över det.
2,873,766
FFSC: An Energy Efficiency Communications Approach for Delay Minimizing in Internet of Things
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
1,047
Trådlös ad hoc routing har studerats ingående och många smarta program har föreslagits under de senaste åren. En klass av ad hoc routing är geografisk routing där varje mellanliggande nod självständigt väljer nästa humle med hjälp av den angivna lokaliseringsinformationen för destinationen. Geografisk routing, som eliminerar overhead av linje begäran paket översvämning, är skalbar och lämplig för storskaliga ad hoc-nät. Geografisk routing kan dock välja de långa avsticksvägarna när det finns tomrum mellan en källa och en destination. I detta dokument föreslår vi en ny geografisk routing metod som kallas geografisk landmärke routing (GLR). GLR upptäcker rekursivt de mellanliggande noderna som kallas landmärken och konstruerar sub-patter som förbinder de efterföljande landmärkena. Simuleringsresultat på olika nätverkstopologier visar att GLR avsevärt förbättrar prestandan för geografisk routing.
Även relaterad är GLR, ett geografiskt routing system för stora trådlösa ad hoc-nätverk REF.
6,914,634
GLR: A Novel Geographic Routing Scheme for Large Wireless Ad Hoc Networks
{'venue': 'Computer Networks', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,048
Kopplingen mellan påverkan, definierad som förmågan till sentimental upphetsning från ett budskaps sida, och viralitet, definierad som sannolikheten för att den skickas med, är av betydande teoretisk och praktisk betydelse, t.ex. för viral marknadsföring. En kvantitativ studie av e-post av artiklar från NY Times (Berger och Milkman, 2010) finner en stark koppling mellan positiv påverkan och viralitet, och utifrån psykologiska teorier dras slutsatsen att detta förhållande är universellt giltigt. Slutsatsen tycks stå i kontrast till den klassiska spridningsteorin i nyhetsmedia (Galtung och Ruge, 1965) som betonar negativ påverkan som främjande av förökning. I detta dokument undersöker vi den uppenbara paradoxen i en kvantitativ analys av informationsspridningen på Twitter. Twitter är intressant i detta sammanhang eftersom det har visat sig att presentera både sociala och nyhetsmedier (Kwak et al., 2010). Det grundläggande måttet på viralitet i Twitter är sannolikheten för retweet. Twitter skiljer sig från e-post i det att retweeting inte beror på redan existerande sociala relationer, men ofta förekommer bland främlingar, så i detta avseende Twitter kan vara mer lik traditionella nyhetsmedier. Vi antar därför att negativt nyhetsinnehåll är mer sannolikt att bli återweeted, medan för icke-nyheter tweets positiva känslor stöder viralitet. För att testa hypotesen analyserar vi tre corpora: Ett komplett urval av tweets om COP15 klimattoppen, ett slumpmässigt urval av tweets, och en allmän text corpus inklusive nyheter. Den senare gör det möjligt för oss att utbilda en klassificerare som kan skilja tweets som bär nyheter och icke-nyheter information. Vi lägger fram bevis för att negativa känslor ökar viraliteten i nyhetssegmentet, men inte i non-news-segmentet. Vi drar slutsatsen att förhållandet mellan påverkan och viralitet är mer komplext än förväntat baserat på resultaten från Berger och Milkman (2010), kort sagt "om du vill bli citerad: Söt prata med dina vänner eller servera dåliga nyheter till allmänheten". Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
REF undersökte relationen mellan känslor som finns i en tweet och retweetability.
15,358,164
Good Friends, Bad News - Affect and Virality in Twitter
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']}
1,049
Med den anmärkningsvärda framgången från toppmoderna konvolutionella neurala nätverk har de senaste verken [1, 31] visat lovande resultat när det gäller att discriminativt träna nätverken för att lära sig semantiska inslag där liknande exempel kartläggs nära varandra och olika exempel kartläggs längre isär. I denna uppsats beskriver vi en algoritm för att dra full nytta av träningssatserna i neurala nätverksträningen genom att lyfta vektorn av parvisa avstånd inom partiet till matrisen av parvisa avstånd. Detta steg gör det möjligt för algoritmen att lära sig toppmoderna funktionen inbädda genom att optimera en ny strukturerad förutsägelse mål på det upphävda problemet. Dessutom samlade vi Stanford Online Products dataset: 120k bilder av 23k klasser av onlineprodukter för metrisk inlärning. Våra experiment på CUB-200-2011 [37], CARS196 [19], och Stanford Online Products dataset visar betydande förbättringar jämfört med befintliga djupa funktioner inbäddningsmetoder på alla experimenterade inbäddningsstorlekar med GoogLeNet [33] nätverket. Källkoden och datauppsättningen finns på https://github.com/rksltnl/ Deep-Metric-Learning-CVPR16.
REF utformade en algoritm för att dra nytta av minibatcherna under träningsprocessen genom att lyfta vektorn av parvisa avstånd inom partiet till matrisen av parvisa avstånd, vilket gör det möjligt för algoritmen att lära sig funktionen inbäddning genom att optimera en ny strukturerad förutsägelse mål på lyft problemet.
5,726,681
Deep Metric Learning via Lifted Structured Feature Embedding
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
1,050
Abstrakt. I detta dokument föreslår vi en enkel och allmän ram för utbildning av mycket små CNN (t.ex. VGG med antalet kanaler reducerade till 1 32 ) för objektdetektering. På grund av begränsad representationsförmåga är det en utmaning att utbilda mycket små nätverk för komplicerade uppgifter som detektion. Såvitt vi vet är vår metod, Quantization Mimic, den första som fokuserar på mycket små nätverk. Vi använder oss av två typer av accelerationsmetoder: imitering och kvantisering. Mimic förbättrar prestandan hos ett studentnätverk genom att överföra kunskap från ett lärarnätverk. Kvantisering omvandlar ett fullprecisionsnätverk till ett kvantiserat nätverk utan stor försämring av prestanda. Om lärarnätverket kvantifieras blir studentnätverkets sökområde mindre. Med hjälp av detta inslag i kvantifieringen föreslår vi kvantisering Mimic. Den kvantifierar först det stora nätet och härmar sedan ett kvantiserat litet nätverk. Kvantiseringsoperationen kan hjälpa studentnätverket att bättre matcha funktionskartorna från lärarnätverket. För att utvärdera vårt tillvägagångssätt utför vi experiment på olika populära CNNs inklusive VGG och Resnet, samt olika detekteringsramar inklusive Snabbare R-CNN och R-FCN. Experiment på Pascal VOC och WIDER FACE verifierar att vår kvantisering Mimic algoritm kan tillämpas på olika inställningar och överträffar state-of-the-art modell acceleration metoder med begränsad dator resouces.
Wei och Al. REF föreslår att man kombinerar funktionsimitation med kvantiseringsteknik, vilket hjälper studentnätverk att bättre matcha funktionskartorna för lärarnätverk för effektivare funktionsdestillering.
24,139,282
Quantization Mimic: Towards Very Tiny CNN for Object Detection
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,052
I detta dokument presenterar vi en aktiv inlärningsmetod som används för att skapa en kommenterad corpus av bokstavliga och icke-litterära användningar av verb. Modellen använder nästan oövervakade ord-sense disambiguation och klustering tekniker. Vi rapporterar om experiment där en mänsklig expert uppmanas att korrigera systemprognoser i olika stadier av lärande: (i) efter den senaste iterationen när klustersteget har konvergerat, eller (ii) under varje iteration av klusteralgoritmen. Modellen får en f-poäng på 53,8% på en datauppsättning där bokstavliga/icke-litterära användningar av 25 verb kommenterades av mänskliga experter. I jämförelse, samma modell förstärkt med aktivt lärande får 64,91%. Vi mäter också antalet exempel som krävs när modellkonfidens används för att välja exempel på mänsklig korrigering jämfört med slumpmässigt urval. Resultaten av detta aktiva inlärningssystem har sammanställts till en fritt tillgänglig kommenterad corpus av bokstavlig/icke-litterär användning av verb i sammanhang.
Vårt arbete bygger på forskning av REF som använde en aktiv inlärningsmetod för att skapa en kommenterad corpus av meningar med bokstavliga och bildliga sinnen av 50 vanliga engelska verb.
14,685,368
Active Learning for the Identification of Nonliteral Language
{'venue': 'Workshop on Computational Approaches to Figurative Language', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,053
Abstrakt. Överlämnande vid länkskikt 2 (L2) består av tre faser: skanning, autentisering och återförening. Av de tre faserna är skanning dominerande när det gäller tidsfördröjning. I detta dokument föreslår vi därför en förbättrad scanningsmekanism för att minimera den frånkopplade tiden medan den trådlösa stationen (STA) ändrar de tillhörande åtkomstpunkterna (APs). Enligt IEEE 802.11 standard måste STA skanna alla kanaler i skanningsfasen. I detta papper, baserat på granngrafen (NG), introducerar vi en selektiv kanal scanning metod för snabb överlämnande där STA skannar endast kanaler som valts av NG. Experimentella resultat visar att den föreslagna metoden minskar skanningsfördröjningen drastiskt.
I REF föreslog författarna en reducerad kanalskanningsmetod baserad på placering och distribution av AP i nätverket.
14,026,378
Selective Channel Scanning for Fast Handoff in Wireless LAN Using Neighbor Graph
{'venue': 'PWC', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Engineering']}
1,054
Vi presenterar en suddig färghistogrambaserad detekteringsalgoritm specialiserad på innehållsbaserad kopieringsdetektering. Den föreslagna metoden syftar till att upptäcka både nedskärningar och gradvisa övergångar (falska, lösa) effektivt i videor där tunga omvandlingar (t.ex. cam-cording, införande av mönster, stark omkodning) inträffar. Tillsammans med färghistogrammet som genereras med den suddiga länkningsmetoden på färgrymden L*a*b*, extraherar systemet en mask för stillbildsområden och fönstret för bild-i-bild transformation för varje upptäckt skott, vilket kommer att vara användbart i ett innehållsbaserat kopieringsdetekteringssystem. Experimentella resultat visar att vår metod på ett effektivt sätt upptäcker skottgränser och minskar falsklarm jämfört med de toppmoderna skottgränsöverskridande detektionsalgoritmerna.
I REF genereras färghistogram med hjälp av Fuzzy Logic för abrupt och gradvis övergångsdetektering.
851,353
Fuzzy Color Histogram-based Video Segmentation
{'venue': 'COMPUTER VISION AND IMAGE UNDERSTANDING 114 (2010) 125–134', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,055
Abstrakt. Spatial data mining är en process som används för att upptäcka intressanta men inte uttryckligen tillgängliga, mycket användbara mönster inbäddade i både rumsliga och icke-spatiala data, som eventuellt lagras i en rumslig databas. En viktig tillämpning av rumsliga datautvinningsmetoder är utvinning av kunskap från ett geografiskt informationssystem (GIS). INGENS (Inductive GEographic iNformation System) är en prototyp av GIS som integrerar datautvinningsverktyg för att hjälpa användare i deras uppgift att topografisk karttolkning. Den rumsliga datautvinningsprocessen riktar sig till en användare som kontrollerar parametrarna i processen med hjälp av en fråga skriven på ett gruvsökspråk. I detta dokument presenterar vi SDMOQL (Spatial Data Mining Object Query Language), ett rumsligt datautvinningsspråk som används i INGENS, vars design är baserad på standard OQL (Object Query Language). För närvarande stöder SDMOQL två datautvinningsuppgifter: att införa klassificeringsregler och upptäcka föreningsregler. För båda uppgifterna tillåter språket specificering av uppgiftsrelevanta data, den typ av kunskap som ska mineras, bakgrundskunskap och hierarkier, intressanta åtgärder och visualisering för upptäckta mönster. Vissa begränsningar i frågespråket identifieras av den särskilda gruvuppgiften. Syntaxen för frågespråket beskrivs och programmet för ett verkligt arkiv av kartor rapporteras kortfattat.
Den symboliska representationen av utbildning exempel automatiskt extraheras från kartor, även om det fortfarande kontrolleras av användaren som kan välja en lämplig nivå av abstraktion och / eller aggregering av data med hjälp av en data mining frågespråk REF.
12,696,095
A Data Mining Query Language for Knowledge Discovery in a Geographical Information System
{'venue': 'Database Support for Data Mining Applications', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,056
Abstract-säkerhet inspektion och tester kräver experter i säkerhet som tänker som en angripare. Säkerhetsexperter behöver veta var koderna finns för att fokusera sina test- och inspektionsinsatser. Eftersom sårbarheter är sällsynta händelser kan lokalisering av sårbara kodplatser vara en utmanande uppgift. Vi undersökte om programvarumått som erhållits från källkod och utvecklingshistoria är diskriminativa och prediktiva för sårbara kodplatser. I så fall kan säkerhetsexperter använda denna förutsägelse för att prioritera säkerhetsinspektioner och testinsatser. De mätvärden vi undersökt faller in i tre kategorier: komplexitet, kod churn, och utvecklaraktivitetsmått. Vi utförde två empiriska fallstudier på stora, allmänt använda öppna källkodsprojekt: Mozilla Firefox webbläsare och Red Hat Enterprise Linux kärnan. Resultaten visar att 24 av de 28 mätvärden som samlats in är diskriminativa av sårbarheter för båda projekten. Modellerna använder alla tre typer av mätvärden tillsammans förutspådde över 80 procent av de kända sårbara filer med mindre än 25 procent falska positiva för båda projekten. Jämfört med ett slumpmässigt urval av filer för inspektion och testning, dessa modeller skulle ha minskat antalet filer och antalet rader kod för att inspektera eller testa med över 71 respektive 28 procent, för båda projekten.
I deras studie Shin et al. REF beskriver resultatet av testningen om komplexiteten, koden churn och utvecklaraktivitetsmått (28 tillsammans) som erhålls från källkoden och utvecklingshistoriken är lämpliga indikatorer för lokaliseringen av programvarusårbarheter.
15,663,223
Evaluating Complexity, Code Churn, and Developer Activity Metrics as Indicators of Software Vulnerabilities
{'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']}
1,057
För närvarande har en enorm mängd visuella data såsom digitala bilder och videor samlats in av visuella sensornoder, det vill säga kameranoder, och distribuerats på visuella sensornätverk. Bland de visuella uppgifterna finns en hel del nära-dubblerade bilder, som orsakar ett allvarligt slöseri med begränsad lagring, dator- och överföringsresurser av visuella sensornätverk och en negativ inverkan på användarnas upplevelse. Det är därför angeläget att få bort den bild som är nära nog dubblerad. I denna artikel föreslås en snabb och exakt nästan duplicerad elimineringsmetod för visuella sensornätverk. För det första föreslås en grov-till-fine klustermetod baserad på en kombination av globala funktioner och lokala funktioner för att samla nästan dubblerade bilder. Sedan i varje nära-dubblett grupp, antar vi PageRank algoritm för att analysera den kontextuella relevansen bland bilder för att välja och reservera frö bild och ta bort de andra. De experimentella resultaten visar att det föreslagna tillvägagångssättet uppnår bättre resultat i fråga om både effektivitet och noggrannhet jämfört med de senaste metoderna.
I tidningen REF föreslås en grov-till-fine klustermetod baserad på en kombination av globala funktioner och lokala funktioner och PageRank för att nästan eliminera dubbletter för visuella sensornätverk.
206,762,527
Fast and accurate near-duplicate image elimination for visual sensor networks
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
1,058
Webbskript kraschar och missbildade dynamiskt genererade webbsidor är vanliga fel, och de allvarligt påverkar användbarheten av webbprogram. Nuvarande verktyg för webbsidevalidering kan inte hantera de dynamiskt genererade sidorna som är allestädes närvarande på dagens Internet. I detta arbete tillämpar vi en dynamisk testgenereringsteknik, baserad på kombinerad betong och symbolisk exekvering, på domänen för dynamiska webbapplikationer. Tekniken genererar tester automatiskt, använder testerna för att upptäcka fel, och minimerar villkoren för indata som exponerar varje fel, så att de resulterande felrapporterna är små och användbara för att hitta och rätta de underliggande felen. Vårt verktyg Apollo implementerar tekniken för PHP. Apollo genererar testingångar för webbapplikationen, övervakar programmet för krascher och validerar att utdatan överensstämmer med HTML-specifikationen. Detta dokument presenterar Apollos algoritmer och implementering, och en experimentell utvärdering som avslöjade 214 fel i 4 PHP Web-program.
Apollo REF genererar testingångar för PHP, kontrollerar körningen för krascher och validerar utdatans överensstämmelse med HTML-standarder.
13,180,030
Finding bugs in dynamic web applications
{'venue': "ISSTA '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,059
Abstract-Deep convolutional neural networks (CNN) kan tillämpas på skadlig kod binär upptäckt genom bildklassificering. Prestandan, dock, försämras på grund av obalansen i malware familjer (klasser). För att mildra denna fråga föreslår vi en enkel men effektiv viktad mjukmax-förlust som kan användas som det sista skiktet av djupa CNN. Den ursprungliga softmax-förlusten viktas och viktvärdet kan bestämmas enligt klassens storlek. En skalningsparameter ingår också i beräkning av vikten. Ett korrekt urval av denna parameter har studerats och ett empiriskt alternativ ges. Den viktade förlusten syftar till att minska effekten av dataobalansen på ett lärandesätt från början till slut. För att validera effekten, använder vi den föreslagna viktade förlusten i en förtränad djup CNN-modell och finjustera den för att uppnå lovande resultat på malware bildklassificering. Omfattande experiment visar också att den nya förlustfunktionen kan passa andra typiska CNN med en förbättrad klassificeringsprestanda.
I REF föreslogs en metod genom vilken softmax-förlustfunktionen skalas av en skalningsparameter som bestäms som en funktion av etiketternas frekvens.
34,480,577
Imbalanced Malware Images Classification: a CNN based Approach
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,060
Traditionellt har utvärderingsmetoder inom semantisk teknik fokuserat på slutresultatet av ontologitekniska insatser, främst på att utvärdera ontologier och deras motsvarande egenskaper och egenskaper. Detta fokus har lett till utvecklingen av en hel arsenal av ontologi-värdering tekniker som undersöker kvaliteten på ontologier som en produkt. I denna uppsats syftar vi till att belysa processen för ontologi konstruktion genom att införa och tillämpa en uppsättning åtgärder för att analysera dold social dynamik.Vi hävdar att speciellt för ontologier som konstrueras gemensamt, förstå de sociala processer som har lett till dess konstruktion är avgörande inte bara för förståelse utan också för att utvärdera ontologin. Med det arbete som presenteras i denna uppsats, syftar vi till att avslöja strukturen i samverkan ontologi ingenjörsprocesser som annars lämnas osynlig. Med hjälp av historiska förändringsloggdata avslöjar vi kvalitativa skillnader och likheter mellan olika samverkande ontologitekniska projekt. Att förklara och förstå dessa skillnader kommer att hjälpa oss att bättre förstå de sociala faktorernas roll och betydelse i samarbetsprojekt inom ontologiteknik. Vi hoppas att vår analys kommer att stimulera en ny rad utvärderingsmetoder som inte ser ontologier som ett statiskt resultat av överläggningar mellan domänexperter, utan som en dynamisk, samarbetsinriktad och iterativ process som måste förstås, utvärderas och hanteras i sig. Vi tror att framsteg i denna riktning skulle hjälpa vår gemenskap att utöka den befintliga arsenalen av ontologi utvärderingstekniker mot mer holistiska strategier.
För att lära dig mer om samverkans inverkan och kvalitet i samverkande ontologi-engineeringsprojekt, Strohmaier et al. REF undersökte den dolda sociala dynamik som äger rum i sådana projekt från den biomedicinska domänen och tillhandahöll nya mätvärden för att kvantifiera olika aspekter av de samverkande tekniska processerna.
3,002,537
How Ontologies are Made: Studying the Hidden Social Dynamics Behind Collaborative Ontology Engineering Projects
{'venue': 'Web semantics', 'journal': 'Web semantics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
1,062
Blind quantum beräkning protokoll gör det möjligt för en användare att delegera en beräkning till en fjärr kvantdator på ett sådant sätt att integriteten i deras beräkning bevaras, även från den enhet som genomför beräkningen. Hittills är sådana protokoll bara kända för inställningar som omfattar minst två kvantenheter: antingen en användare med vissa kvantfunktioner och en fjärr-quantumserver eller två eller flera insnärjda men icke-kommunicerande servrar. I detta arbete tar vi det första steget mot byggandet av ett blind kvantdatorprotokoll med en helt klassisk klient och en enda kvantserver. Specifikt visar vi hur en klassisk klient kan utnyttja tvetydigheten i informationsflödet i mätbaserad kvantdator för att konstruera ett protokoll för att dölja kritiska aspekter av en beräkning som delegerats till en fjärrdator. Denna tvetydighet uppstår på grund av det faktum att det för en fast graf finns flera val av inmatnings- och utgående vertex-uppsättningar som resulterar i deterministiska mätmönster som överensstämmer med samma fasta totala beställning av hörn. Detta gör det möjligt för en klassisk användare, som endast beräknar mätvinklar, att köra en mätbaserad beräkning som utförs på en fjärrenhet samtidigt som kritiska aspekter av beräkningen döljs.
Mantri m.fl. föreslog ett protokoll som bygger på den mätningsbaserade modellen av kvantberäkning där en klient kan delegera en kvantberäkning till en server samtidigt behålla viss integritet REF.
2,210,519
Flow Ambiguity: A Path Towards Classically Driven Blind Quantum Computation
{'venue': 'Phys. Rev. X 7, 031004 (2017)', 'journal': None, 'mag_field_of_study': ['Physics', 'Computer Science']}
1,063
Abstract-Medan sökandet efter snabba och bekväma Internettjänster växer stadigt, energihungriga datacenter motsvarande expandera i både antal och skala -ett faktum som väcker globala uppvärmning och klimatförändringar oro. Dessutom, hög penetration av förnybara energikällor, utveckling av energieffektiva kylanläggningar, och flexibilitet för distribuerade lagringsenheter, alla kräver en systemomfattande energi- och arbetsbelastningshanteringspolicy för framtida hållbara datacenter. Eftersom det är praktiskt omöjligt att genomföra strategier för hantering offline på grund av komplexiteten och bristen på framtida information, behandlas system för förvaltning i realtid här inom en systematisk ram. Tack vare stokastiska optimeringsverktyg föreslås en enhetlig hanteringsmetod som gör det möjligt för datacenter att anpassa sig till intermittent tillgång till förnybara energikällor, variabilitet i kyleffektivitet, IT-arbetsbörda och energiprisfluktuationer under långsiktiga kvalitetskrav (QoS). Samtidigt är det strikt fastställt att när lagringsanordningar har tillräckligt hög kapacitet, eller när skillnaden mellan elköps- och försäljningspriser är liten, ger den föreslagna algoritmen en genomförbar och nära optimal förvaltningsstrategi utan att känna till distributionerna av oberoende och identiskt distribuerade (i.i.d.) arbetsbelastning, förnybar energi och elprisprocesser. Numeriska resultat visar vidare att den föreslagna algoritmen fungerar bra inte bara för i.i.d. processer, men också i verkliga datascenarier, där den underliggande slumpmässigheten är i hög grad korrelerad över tiden.
Detta arbete REF föreslår en enhetlig hanteringsmetod med utnyttjande av stokastiska optimeringsverktyg som gör det möjligt för datacenteren att anpassa sig till en variation av kyleffektivitet under långsiktiga QoS-krav.
16,408,097
Cooling-Aware Energy and Workload Management in Data Centers via Stochastic Optimization
{'venue': 'IEEE Journal of Selected Topics in Signal Processing', 'journal': 'IEEE Journal of Selected Topics in Signal Processing', 'mag_field_of_study': ['Computer Science']}
1,064
Abstract-Open source cloud teknologier ger ett brett utbud av stöd för att skapa anpassade compute node kluster för att schemalägga uppgifter och hantera resurser. I molninfrastrukturer som Jetstream och Chameleon, som används för vetenskaplig forskning, får användarna fullständig kontroll över de virtuella maskiner som tilldelas dem. Viktigt är att användare får åtkomst till de virtuella maskinerna. Detta ger HPC-användare en möjlighet att experimentera med nya resurshanteringstekniker som Apache Mesos som har visat skalbarhet, flexibilitet och feltolerans. För att underlätta utvecklingen och spridningen av HPC-verktyg på molnet har containeriseringstekniken mognat och ökar intresset för forskarsamhället. I synnerhet har flera välkända vetenskapliga kodbaser nu offentligt tillgängliga Docker containrar. Mesos ger stöd för Docker containrar att köra individuellt, men det ger inte stöd för container interkommunikation eller orkestrering av containrar för en parallell eller distribuerad applikation. I detta dokument presenterar vi design, implementering och prestandaanalys av ett Mesos-ramverk, Scylla, som integrerar Mesos med Docker Swarm för att möjliggöra orkestrering av MPI-jobb på ett kluster av virtuella maskiner som förvärvats från Chameleonmolnet [1]. Scylla använder Docker Swarm för kommunikation mellan containeriserade uppgifter (MPI-processer) och Apache Mesos för resurspoolning och allokering. Scylla tillåter en policydriven strategi för att bestämma hur behållarna ska fördelas över noderna beroende på CPU, minne, och nätverk genomströmningskrav för varje program.
Ett Mesos-ramverk, Scylla REF, utvecklades för att orkestrera vetenskapliga MPI-uppgifter på ett Mesos-kluster.
160,009,611
Scylla: A Mesos Framework for Container Based MPI Jobs
{'venue': 'MTAGS 2017', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,065
En viktig utmaning när det gäller att utnyttja dataförstärkning för utbildning i neurala nätverk är att välja en effektiv förstärkningspolicy från ett stort sökområde för kandidatoperationer. Korrekt valda förstärkningspolicyer kan leda till betydande generalisering förbättringar; dock, state-of-t heart metoder som AutoAugment är beräkningsbart omöjligt att köra för den vanliga användaren. I detta dokument introducerar vi en ny dataförstärkningsalgoritm, Population Based Augmentation (PBA), som genererar icke-stationära förstärkningspolicyscheman istället för en fast förstärkningspolicy. Vi visar att PBA kan matcha prestandan för AutoAugment på CIFAR-10, CIFAR-100, och SVHN, med tre storleksordningar mindre total beräkning. På CIFAR-10 uppnår vi ett genomsnittligt testfel på 1,46 %, vilket är en liten förbättring jämfört med den nuvarande toppmoderna tekniken. Koden för PBA är öppen källkod och finns på https://github.com/arcelien/pba.
Mer nyligen, Populationsbaserad Augmentation (PBA) lär icke-stationär förstärkning politik scheman i stället för en fast förstärkning politik REF.
153,312,991
Population Based Augmentation: Efficient Learning of Augmentation Policy Schedules
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,067
System för insamling av information bör erkänna att det finns samarbete i sökprocessen. Samarbete kan hjälpa användarna att bli mer effektiva både i inlärningssystemen och när det gäller att använda dem. Vi anser att vissa frågor om att visa gränssnitt mot informationssökningssystem är samverkande notationer och hur man bygger system som mer aktivt stödjer samarbete. Vi beskriver ett system som förkroppsligar bara ett slags explicit stöd; en grafisk representation av sökprocessen som kan manipuleras och diskuteras av användarna. Genom att erkänna vikten av andra människor i sökprocessen kan vi utveckla system som inte bara förbättrar människors hjälpgivning utan som kan leda till en mer robust sökaktivitet, som kan hantera, och faktiskt utnyttja, misslyckanden hos alla intelligenta agenter som används. 1 Att utforma gränssnitt för att stödja samarbete i informationssökning Designa gränssnitt för att stödja samarbete i informationshämtning Informationssökningssystem bör erkänna att det finns samarbete i sökprocessen. Samarbete kan hjälpa användarna att bli mer effektiva både i inlärningssystemen och när det gäller att använda dem. Vi anser att vissa frågor om att visa gränssnitt mot informationssökningssystem är samverkande notationer och hur man bygger system som mer aktivt stödjer samarbete. Vi beskriver ett system som förkroppsligar bara ett slags explicit stöd; en grafisk representation av sökprocessen som kan manipuleras och diskuteras av användarna. Genom att erkänna vikten av andra människor i sökprocessen kan vi utveckla system som inte bara förbättrar människors hjälpgivning utan som kan leda till en mer robust sökaktivitet, som kan hantera, och faktiskt utnyttja, misslyckanden hos alla intelligenta agenter som används.
Twidale och Nichols utformade en applikation, Adriane, för att stödja samarbete informationssökning REF.
10,912,331
Designing Interfaces to support Collaboration in Information Retrieval
{'venue': 'Computers', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,068
Abstract-Personlig interaktiv tv-sändning kräver audiovisuell bearbetning i realtid på nivåer som är opraktiska i slutanvändarutrustning. Att garantera tjänsternas kvalitet (QoS) är dock fortfarande en utmaning för molnbaserade lösningar. I detta dokument föreslås en grupp-QoS-optimeringsstrategi för problemet som visar på betydande förbättringar i antalet användare som betjänas. Under det senaste årtiondet har tillämpningar baserade på Interactive Television (ITV) blivit mycket populära inom sektorn för konsumentunderhållning [1]. För att underlätta nästa generations ITV föreslår ÅTGÄRD-TV [2] ett nytt sätt att personalisera TV-program för ett stort antal samtidiga sociala grupper, på ett sådant sätt att vissa individer från varje grupp kan delta i showen medan resten njuter av sina sociala kamraters prestationer. I en frågesport kan t.ex. en intresserad användare (dvs. en aktiv interaktiv användare) bli en av de tävlande från hemmets bekvämlighet och endast hans/hennes sociala grupp (dvs. passiva interaktiva användare) kan se hans/hennes utseende. Konsumentenheter kanske inte kan stödja denna typ av interaktiva multimedietillämpningar på grund av otillräckliga beräkningsresurser. Därför är molnstöd en nödvändighet för att förverkliga dessa program. Därför har en intercloud [3] baserad mediebearbetningsarkitektur föreslagits för personalisering av sändningsmedier [2]. Här, användarnas aktivitetsdata förvärvas med hjälp av konsumentkvalitetssensorer som Kinect, och laddas upp till molnbaserade mediebearbetningsservrar som personifierar sändningsmedia genom att åter-auktorisera showen med hjälp av preparerade fotorealistiska 3D-modeller. När antalet samtidiga sociala grupper ökar kan moln- och kommunikationsinfrastrukturen snabbt förbrukas. Dessutom måste kommunikationsförseningen mellan aktiva interaktiva användare och bearbetningsservern bibehållas på en godtagbar nivå för att förbättra användarupplevelsen. Därför, i samband med ett program som ÅTGÄRD-TV, design utmaningen är valet av molnet som är värd för bearbetningsservern för varje social grupp, så att övergripande användares QoS maximeras. Eftersom användare av en viss social grupp kan anslutas till olika moln i ett innehållsleveransnätverk (CDN) arkitektur som visas i Bild. 1, den optimala platsen för bearbetningsmolnet måste fastställas baserat på nätverksförhållandena och datacenter tillgänglighet. Dessutom ska bearbetningskraven på molninfrastrukturerna skalas linjärt med antalet sociala grupper. Således blir optimal tilldelning av molnresurser ännu mer utmanande med det ökande antalet användare, sociala grupper, moln och nätverksförhållanden. I detta dokument föreslås en gruppbaserad QoS-maximeringsmetod för att bestämma tilldelningen av molntjänster för personalisering av ITV-innehåll. I detta avsnitt introducerar vi ITV-systemet och beskriver optimeringsproblem och tillhörande begränsningar. Bilda. 1 illustrerar ett exempel logiskt nätverksdiagram över ett ITV-system. För enkelhetens skull illustrerar den två användargrupper (dvs. sociala grupper) som är anslutna till två Internetleverantörer (ISP) och tre potentiella beräkningsresurser (dvs. moln). Användare kategoriseras i "Actively Interacting (AI)" och "Passively Interacting (PI)" användare, vars innehåll behandlas av ett tredje "behandlingsmoln" som anges. Det allmänna problemet för flera användargrupper och molnresurser kan därför uttryckas enligt följande. Låt S betecknar uppsättningen av J moln som finns i nätverket, U vara uppsättningen av K ITV-tittare som tillhör N personliga sociala grupper, T vara uppsättningen av J×J virtuella länkar mellan moln, och E uppsättningen av K-länkar mellan enskilda användare och deras Internetleverantörer. Således,
I samband med en verkligt interaktiv ITV-applikation, som beskrivs i föregående avsnitt REF, måste resurstilldelning ske både i applikationsskiktet (t.ex. processor- och minnesallokering) och i nätverksskiktet (t.ex. val av nätverksrutt).
18,098,625
Optimized resource distribution for interactive TV applications
{'venue': '2015 IEEE International Conference on Consumer Electronics (ICCE)', 'journal': '2015 IEEE International Conference on Consumer Electronics (ICCE)', 'mag_field_of_study': ['Computer Science']}
1,069
Abstract-This paper undersöka sekretess outage prestanda överföring antennval (TAS) /maximal kvot som kombinerar (MRC) i flera input-multiple-output (MIMO) kognitiva radionätverk (CRN) över Rayleigh blekning kanaler. I det aktuella systemet använder en sekundär användare (SU-TX) utrustad med N A (N A ≥ 1) antenner TAS för att överföra konfidentiella meddelanden till en annan sekundäranvändare (SU-RX), som är utrustad med N B (N B ≥ 1) antenner och antar MRC-systemet för att bearbeta flera mottagna signaler. Under tiden, en tjuvlyssnare utrustad med N E (N E ≥ 1) antenner också antar MRC systemet för att höra överförd information mellan SU-TX och SU-RX. SU-TX antar en underlay-strategi för att garantera kvaliteten på tjänsten (QoS) för den primära användaren (PU) utan spektrumavkänning. I detta dokument härleder vi de exakta och asymptotiska slutna formuttrycken för sannolikheten för sekretessavbrott (SOP). Simuleringar utförs för att validera analysens noggrannhet. Index Terms-Cognitive Radio Networks (CRNs), maximal kvot kombinerar (MRC), multi-input-multiple-output (MIMO), sekretess avbrott sannolikhet (SOP), överföring antenn val (TAS).
I REF, överföra antenn val tillsammans med maximal kvot kombinerar tekniker har föreslagits för att minska sannolikheten för att höra i det sekundära nätverket.
31,236,638
Secrecy Outage on Transmit Antenna Selection/Maximal Ratio Combining in MIMO Cognitive Radio Networks
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
1,070
Under det senaste årtiondet har SIFT-deskriptor setts som en av de mest robusta lokala invarianta deskriptorerna och används allmänt i olika visionsuppgifter. De flesta traditionella bildklassificeringssystem beror på de grå-baserade SIFT-deskriptorerna, som bara analyserar de grå nivåvariationerna av bilderna. Missklassificering kan hända eftersom deras färginnehåll ignoreras. I den här artikeln fokuserar vi på att förbättra prestandan hos befintliga algoritmer för bildklassificering genom att lägga till färginformation. För att uppnå detta ändamål införs och genomförs olika typer av färgade SIFT-deskriptorer. Lokalitetskonstruerad linjär kodning (LLC), en toppmodern kodningsteknik för sparse, används för att konstruera bildklassificeringssystemet för utvärderingen. Dessutom föreslår vi en enkel'2 - norm legaliserade lokala avstånd för att förbättra den traditionella LLC metoden. De verkliga experimenten utförs på flera riktmärken. Med förbättringarna till färg SIFT och'2 - norm legalisering, det föreslagna bildklassificeringssystemet får cirka 2 % förbättring av klassificeringsnoggrannheten på Caltech-101 datasetet och cirka 5 % förbättring av klassificeringsnoggrannheten på Caltech-256 datasetet.
En av de mest framstående applikationerna är CSIFT REF.
8,896,696
CSIFT based locality-constrained linear coding for image classification
{'venue': 'Pattern Analysis and Applications', 'journal': 'Pattern Analysis and Applications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,071
Det har gjorts stora framsteg på senare tid när det gäller förbättrade approximationer för problem som rör submodulära objektiva funktioner, och många intressanta tekniker har utvecklats. Men de resulterande algoritmerna är ofta långsamma och opraktiska. I detta papper utvecklar vi algoritmer som matchar de mest kända approximationsgarantierna, men med avsevärt förbättrade körtider, för att maximera en monoton submodulär funktion f : 2 [n] → R + med olika begränsningar. Liksom i tidigare arbeten mäter vi antalet orakletanrop till den objektiva funktion som är den dominerande termen i körtiden. Vårt första resultat är en enkel algoritm som ger en (1 − 1/e − ) - approximation för en kardinalitet begränsning med hjälp av O( n log n ) frågor, och en 1/(p + 2 + 1 + ) - approximation för skärningspunkten mellan ett p-system och knapsack (linjära) begränsningar med hjälp av O( n 2 log 2 n ) frågor. Detta är den första approximationen för ett p-system kombinerat med linjära begränsningar. (Vi visar också att faktorn p inte kan förbättras för att maximera över ett p-system.) Huvudidén bakom dessa algoritmer fungerar som en byggsten i våra mer sofistikerade algoritmer. Vårt huvudresultat är en ny variant av den kontinuerliga giriga algoritmen, som interpolerar mellan den klassiska giriga algoritmen och en verkligt kontinuerlig algoritm. Vi visar hur denna algoritm kan implementeras för matroid och knapsack begränsningar med Õ(n 2 ) oracle samtal till den objektiva funktionen. (Tidigare varianter och alternativa tekniker var kända för att använda minst O(n 4) oracle anrop.) Detta leder till en O( n 2 4 log 2 n ) - tid (1 − 1/ e − ) - approximation för en matroid begränsning. För en knapsackrestriktion utvecklar vi en mer involverad (1 − 1/e − ) - approximationsalgoritm som körs i tiden O(n 2 (1 log n)
Senare föreslogs en snabbalgoritm i REF som uppnår en (1 −1/e − en)-approximering och körs i n 2 (log n/ en) O( 1/ en 8 ) tid.
8,691,884
Fast algorithms for maximizing submodular functions
{'venue': 'SODA', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,072
Abstrakt. Trådlös uppkoppling och omfattande spridning av bärbara enheter erbjuder nya möjligheter för användare att dela resurser var som helst och när som helst, och att bilda ad hoc-koalitioner. Resursåtkomstkontroll är avgörande för att utnyttja dessa ad hoc-samarbeten. I genomträngande scenarier kan dock samverkande enheter inte vara förutbestämda och tillgången till resurser varierar ofta, även oförutsägbart, på grund av rörlighet mellan användare och enheter, vilket försvårar kontrollen av resurstillgången. Policyer för tillträdeskontroll kan inte definieras på grundval av företagets identiteter/roller, som i traditionella lösningar för tillträdeskontroll, eller anges i förväg för att möta någon operativ körtid, utan kräver kontinuerliga anpassningar för att anpassa sig till den nuvarande situationen. För att ta itu med dessa frågor förordas i detta dokument att man antar nya policymodeller för tillträdeskontroll som följer två huvudriktlinjer för utformning: sammanhangsmedvetenhet för att kontrollera tillgången till resurser på grundval av sammanhangets synlighet och för att möjliggöra dynamisk anpassning av politiken beroende på kontextförändringar, och semantisk teknik för kontext-/policyspecifikation för att möjliggöra en beskrivning på hög nivå och ett resonemang om sammanhang och politik. I dokumentet beskrivs också utformningen av en semantisk kontextmedveten politisk modell som antar ontologier och regler för att uttrycka sammanhangs- och sammanhangsmedveten politik för tillträdeskontroll och stöder politisk anpassning.
Toninelli och Al. REF använder sammanhangsmedvetenhet för att kontrollera tillgången till resurser och semantisk teknik för politiska specifikationer.
11,367,311
A Semantic Context-Aware Access Control Framework for Secure Collaborations in Pervasive Computing Environments
{'venue': 'HPCC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,073
Överväga två fjärrnoder med binära sekvenser X och Y, Respektive. Y är en redigerad version av X, där redigeringen innebär slumpmässiga raderingar, tillägg och substitutioner, eventuellt i sprickbildningar. Målet är att noden med Y ska rekonstruera X med minimalt utbyte av information över en ljudlös länk. Kommunikationen mäts både i fråga om det totala antalet utbytta bitar och i fråga om antalet interaktiva kommunikationsrundor. Detta dokument fokuserar på inställningen där antalet redigeringar är o( n log n ), där n är längden på X. Vi tar först hänsyn till fallet där redigeringarna är en blandning av tillägg och raderingar (indels), och föreslår en interaktiv synkroniseringsalgoritm med nästan optimal kommunikationshastighet och genomsnittlig beräkningskomplexitet som är linjär i n. Algoritmen använder interaktion för att effektivt dela upp källsekvensen i delsträngar som innehåller exakt en radering eller insättning. Var och en av dessa understrängar synkroniseras sedan med hjälp av en optimal enkelriktad synkroniseringskod baserad på de envägskorrigerande kanalkoderna Varshamov och Tenengolts (VT-koder). Vi bygger sedan vidare på denna synkroniseringsalgoritm på tre olika sätt. Först modifieras det för att fungera med en enda omgång av interaktion. Minskningen av antalet rundor sker på bekostnad av högre kommunikation, vilket kvantifieras. Därefter presenterar vi en förlängning till det praktiskt taget viktiga fallet där tillägg och raderingar kan förekomma i (potentiellt stora) sprickor. Slutligen visar vi hur man synkroniserar källorna till inom ett mål Hamming avstånd. Denna funktion kan användas för att skilja mellan substitution och indelredigeringar. Utöver teoretiska prestandagränser tillhandahåller vi flera validerande simuleringsresultat för de föreslagna algoritmerna.
Referensreferensreferensen kvantifierade avvägningen mellan antalet rundor och överföringshastigheten för kommunikationen.
15,728,206
Low-Complexity Interactive Algorithms for Synchronization from Deletions, Insertions, and Substitutions
{'venue': 'IEEE Transactions on Information Theory, vol. 61, no. 10, pp. 5670-5689, October 2015', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,074
Abstract-Användningen av Multimedia Wireless Sensor Networks (MWSNs) börjar bli vanligt idag med en snabb tillväxt i kommunikationsanläggningar. I likhet med andra WSN står dessa nätverk inför olika utmaningar samtidigt som de tillhandahåller säkerhet, förtroende och integritet för användardata. Tillhandahållande av ovannämnda tjänster blir en uppförsbacke uppgift, särskilt när det gäller streamingdata i realtid. Dessa nätverk fungerar med resursbegränsade sensornoder i dagar, månader och till och med år beroende på typen av en applikation. Dessa näts resursbegränsade karaktär gör det svårt för noderna att hantera realtidsdata i uppdragskritiska tillämpningar som militär övervakning, övervakning av skogsbränder, hälso- och sjukvård och industriell automatisering. För en säker MWSN måste överföring och behandling av strömmande data undersökas på djupet. De konventionella dataautentiseringssystemen är inte lämpliga för MWSN på grund av begränsningarna för sensornoder när det gäller batterieffekt, beräkning, tillgänglig bandbredd och lagring. I detta dokument föreslår vi en ny kvalitetsdriven klusterbaserad teknik för autentisering av strömmande data i MWSNs. Noder med maximal energi väljs som klusterhuvuden (CH). CHs samlar in data från medlemsnoder och vidarebefordrar den till basstationen (BS), vilket förhindrar medlemsnoder med låg energi från att dö snart och ökar livslängden för det underliggande nätverket. Det föreslagna tillvägagångssättet autentiserar inte bara strömmande data, utan bibehåller också kvaliteten på överförda data. Det föreslagna systemet för dataautentisering i kombination med en felhanteringsteknik ger en energieffektiv och störningsfri realtidsströmning av data. Det föreslagna systemet jämförs med ett scenario med oövervakade resurser. Simuleringsresultaten visar bättre nätverkslivslängd tillsammans med 21,34 dB-vinst i maximal signal-till-bruskvot (PSNR) för mottagna videodataströmmar.
Usman m.fl. I Ref föreslogs en klusterbaserad teknik för autentisering av dataströmmar.
25,044,526
Data Sharing in Secure Multimedia Wireless Sensor Networks
{'venue': '2016 IEEE Trustcom/BigDataSE/ISPA', 'journal': '2016 IEEE Trustcom/BigDataSE/ISPA', 'mag_field_of_study': ['Computer Science']}
1,075
SAMMANFATTNING Detta papper presenterar en metod för förlustkompression av digitala videodata genom parametrisk linje och naturlig kubisk spline approximation. Metoden uppskattar variationen av pixelvärden i den timliga dimensionen genom att ta grupp av pixlar tillsammans som nyckelblock och interpolera dem i Euclidean utrymme. Bryt och passform kriterium används för att minimera antalet nyckelblock som krävs för kodning och avkodning av approximerade data. Varje grupp av pixlar på fast rumslig plats kodas/avkodas självständigt. Den föreslagna metoden kan enkelt införlivas i de befintliga videodata kompression tekniker baserade på Discrete Cosine Transform eller Wavelet Transform.
Den metod som presenteras av REF, approximerar videodata med hjälp av parametrisk linje och naturlig kubisk spline genom att kombinera gruppen av pixel tillsammans som ett block och gäller montering för block.
12,769,631
Compression of Video Data Using Parametric Line and Natural Cubic Spline Block Level Approximation
{'venue': 'IEICE Transactions', 'journal': 'IEICE Transactions', 'mag_field_of_study': ['Computer Science']}
1,076
Majoriteten av nuvarande nätverk på Chip (NoC) arkitekturer använder mesh topologi och använda enkel statisk routing, för att minska effekt och område. Regelbunden mesh topologi är dock orealistisk på grund av variationer i modulstorlek och form, och är inte lämplig för tillämpningsspecifika NoCs. Följaktligen är förenklade routingtekniker som XY-routing otillräckliga, vilket ökar behovet av billiga alternativ som kan fungera i oregelbundna nätnät. I detta dokument presenterar vi en ny teknik för att minska den totala hårdvarukostnaden för routing tabeller för både käll och distribuerade routing metoder. Den föreslagna tekniken bygger på att tillämpa en fast routingfunktion kombinerad med minimala avvikelsetabeller som används endast när routingbesluten för en given destination avviker från den fördefinierade routingfunktionen. Vi använder denna metod för att jämföra tre hårdvarueffektiva routing metoder för oregelbunden mesh topologi NoCs. För varje metod utvecklar vi vägvalsalgoritmer som minimerar den totala kostnaden för routingtabeller. Slutligen visar vi genom simuleringar på slumpmässiga och specifika verkliga applikationsnätverk en betydande kostnadsbesparing jämfört med standardlösningar, och undersöka skalning av kostnadsbesparingar med växande NoC storlek.
En teknik baserad på tillämpning av en fast routing funktion i kombination med minimal avvikelse tabeller beskrivs i REF.
248,725
Routing table minimization for irregular mesh NoCs
{'venue': "DATE '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,077
Detta dokument beskriver ett system för realtidsanalys av allmänhetens inställning till presidentkandidater i 2012 U.S. val som uttrycks på Twitter, en mikrobloggning tjänst. Twitter har blivit en central webbplats där människor uttrycker sina åsikter och åsikter om politiska partier och kandidater. Nya händelser eller nyheter följs ofta nästan omedelbart av en explosion i Twitter-volymen, vilket ger en unik möjlighet att mäta förhållandet mellan uttryckta allmänna känslor och valhändelser. Dessutom kan känsloanalys bidra till att undersöka hur dessa händelser påverkar den allmänna opinionen. Medan traditionell innehållsanalys tar dagar eller veckor att slutföra, systemet som visas här analyserar känslor i hela Twitter-trafiken om valet, leverera resultat omedelbart och kontinuerligt. Den erbjuder allmänheten, medierna, politiker och forskare ett nytt och lägligt perspektiv på valprocessens och den allmänna opinionens dynamik.
Wang m.fl. REF analyserade känslor tendentiousness relaterade mikrobloggar i 2012 U.S. presidentval.
2,091,504
A System for Real-time Twitter Sentiment Analysis of 2012 U.S. Presidential Election Cycle
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,078
Det breda antagandet av lokaliseringsbaserade tjänster ger möjlighet att förstå människors rörlighetsmönster på en aldrig tidigare skådad nivå, vilket också kan göra det möjligt för livsmedelsindustrin att exakt förutsäga konsumenternas matvanor. I detta papper, baserat på användarnas matsal implicita återkopplingar (restaurangbesök via incheckningar), explicita återkopplingar (restaurangrecensioner) samt vissa metadata (t.ex. plats, användardemografi, restaurangattribut), syftar vi till att rekommendera varje användare en lista över restauranger för sin nästa middag. Implicit och explicit återkoppling av matbeteende uppvisar olika egenskaper hos användarens preferenser. Därför innehåller användarens matpreferenser huvudsakligen två delar: implicita preferenser som kommer från incheckningsdata (implicit feedback) och explicita preferenser som kommer från betygs- och granskningsdata (explicit feedback). För implicit preferens, använder vi först en probabilistisk tensor factorization modell (PTF) för att fånga preferens i en latent subrymd. Sedan, för att införliva kontextuella signaler från metadata, utökar vi PTF genom att föreslå en Implicit Preferens Model (IPM), som samtidigt kan fånga användares/restaurangers/tids preferenser i samarbetsfiltrering och middag preferenser i ett specifikt sammanhang (t.ex. rumsliga avstånd preferenser, miljö preferenser). För explicit preferens, föreslår vi Explicit Preferens Model (EPM) genom att kombinera matris factorization med ämnesmodellering för att upptäcka användarens preferens inbäddad både i betygspoäng och textinnehåll. Slutligen utformar vi en enhetlig modell som kallas Collective Implicit Explicit Preferens Model (CIEPM) för att kombinera implicita och explicita preferenser tillsammans för restaurangrekommendation. För att utvärdera vårt systems prestanda utför vi omfattande experiment med storskaliga dataset som täcker hundratusentals användare och restauranger. Resultaten visar att vårt system är effektivt för restaurangrekommendation.
REF gav en omfattande studie om restauranger och förkroppsligade dinning preferenser, implicit feedback och explicit feedback för restaurang rekommendation.
6,982,779
Exploiting Dining Preference for Restaurant Recommendation
{'venue': 'WWW', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,079
Den k-Nearest Grannklassning är en enkel men effektiv allmänt känd metod inom datautvinning. Den faktiska tillämpningen av denna modell i stordatadomänen är inte möjlig på grund av tids- och minnesbegränsningar. Flera distribuerade alternativ baserade på MapReduce har föreslagits för att denna metod ska kunna hantera storskaliga data. Deras prestanda kan dock förbättras ytterligare med nya konstruktioner som passar med ny teknik. I detta arbete ger vi en ny lösning för att utföra en exakt k-nearest granne klassificering baserad på Spark. Vi utnyttjar dess in-minnesoperationer för att klassificera stora mängder osedda fall mot en stor träningsdatauppsättning. Kartan fas beräknar k-nearest grannar i olika träningsdata delar. Efteråt, flera reduktioners processa den definitiva grannar från listan som erhållits i kartfasen. Huvudpunkten i detta förslag ligger i hanteringen av testuppsättningen och håller den i minnet när det är möjligt. Annars är den uppdelad i ett minsta antal bitar, tillämpa en MapReduce per bit, med hjälp av caching färdigheter Spark för att återanvända den tidigare partitionerade utbildning set. I våra experiment studerar vi skillnaderna mellan Hadoop- och Spark-implementationer med dataset upp till 11 miljoner fall, vilket visar den uppskalningsförmåga som det föreslagna tillvägagångssättet har. Som ett resultat av detta arbete finns ett open-source Spark-paket tillgängligt.
Kartläggningsfasen förbrukar en avsevärd tid, särskilt med stora värden på K. Detta arbete förbättras ytterligare genom Ref, där de föreslog en ny KNN baserad på Spark (kNN-IS) som liknar Mapping/Reduction-tekniken men använder flera reduktionsmedel för att påskynda processen; storleken på den datauppsättning som används gick upp till 11 miljoner exempel.
5,829,163
kNN-IS : An Iterative Spark-based design of the k-Nearest Neighbors classifier for big data
{'venue': 'Knowl. Based Syst.', 'journal': 'Knowl. Based Syst.', 'mag_field_of_study': ['Computer Science']}
1,080
Neurala nätklassificerare som är utbildade på data med kommenterade klassetiketter kan också fånga skenbar visuell likhet mellan kategorier utan att bli instruerade att göra det. Vi studerar om denna observation kan utvidgas utanför det traditionella området för övervakad inlärning: Kan vi lära oss en bra funktionsrepresentation som fångar uppenbara likheter mellan fall, istället för klasser, genom att bara be funktionen att vara diskriminerande i enskilda fall? Vi formulerar denna intuition som ett icke-parametriskt klassificeringsproblem på instansnivå, och använder bullerkontrastiv uppskattning för att ta itu med de beräkningsutmaningar som det stora antalet instansklasser medför. Våra experimentella resultat visar att vår metod, under oövervakade inlärningsinställningar, överträffar den senaste tekniken på ImageNet klassificering med stor marginal. Vår metod är också anmärkningsvärd för att ständigt förbättra testprestandan med mer träningsdata och bättre nätverksarkitekturer. Genom att finjustera den inlärda funktionen får vi ytterligare konkurrenskraftiga resultat för halvövervakade inlärnings- och objektdetekteringsuppgifter. Vår icke-parametriska modell är mycket kompakt: Med 128 funktioner per bild, kräver vår metod endast 600 MB lagring för en miljon bilder, vilket möjliggör snabb närmaste grannhämtning på körtid.
Wu och Al. I REF föreslogs en icke-parametrisk minnesbank för att lagra instansrepresentationen, för att ta itu med den beräkningsfråga som det stora antalet instanser ställer.
4,591,284
Unsupervised Feature Learning via Non-parametric Instance Discrimination
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
1,081
I detta dokument introduceras ICET, en ny algoritm för kostnadskänslig klassificering. ICET använder en genetisk algoritm för att utveckla en population av fördomar för en beslut träd induktionsalgoritm. Den genetiska algoritmens funktion är den genomsnittliga kostnaden för klassificering vid användning av beslutsträdet, inklusive både kostnaderna för tester (funktioner, mätningar) och kostnaderna för klassificeringsfel. ICET jämförs här med tre andra algoritmer för kostnadskänslig klassificering -EG2, CS-ID3 och IDX - och även med C4.5, som klassificerar utan hänsyn till kostnad. De fem algoritmerna utvärderas empiriskt på fem verkliga medicinska datauppsättningar. Tre uppsättningar experiment utförs. Den första uppsättningen undersöker baslinjeprestandan för de fem algoritmerna för de fem datauppsättningarna och fastställer att ICET presterar betydligt bättre än sina konkurrenter. Den andra uppsättningen testar ICET:s robusthet under en rad olika förhållanden och visar att ICET behåller sin fördel. Den tredje uppsättningen tittar på ICET:s sökning i bias space och upptäcker ett sätt att förbättra sökningen.
Turney använde en genetisk algoritm för att utveckla en population av fördomar för ett beslut träd induktionsalgoritm för klassificering REF.
2,849,863
Cost-Sensitive Classification: Empirical Evaluation of a Hybrid Genetic Decision Tree Induction Algorithm
{'venue': 'Journal of Artificial Intelligence Research, Vol 2, (1995), 369-409', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,082
Abstract-The litteratur om skyline algoritmer har hittills främst behandlat frågor om statiska frågepunkter över statiska datamängder. Med det ökande antalet mobila serviceapplikationer och användare, har dock behovet av kontinuerlig skyline frågebehandling blivit mer trängande. En kontinuerlig skyline fråga omfattar inte bara statiska dimensioner, men också den dynamiska. I detta dokument undersöker vi den spatiotemporala samstämmigheten i problemet och föreslår en kontinuerlig skyline frågebehandlingsstrategi för rörliga frågepunkter. För det första skiljer vi de datapunkter som är permanent i skyline och använder dem för att härleda en sökning bunden. För det andra undersöker vi sambandet mellan de rumsliga positionerna för datapunkter och deras dominansförhållande, vilket ger en indikation på var man hittar förändringar i skyline och hur man upprätthåller skyline kontinuerligt. Baserat på analysen, föreslår vi en kinetisk-baserad datastruktur och en effektiv skyline frågebehandling algoritm. Vi analyserar kortfattat rymd- och tidskostnaderna för den föreslagna metoden och genomför ett omfattande experiment för att utvärdera metoden. Såvitt vi vet är detta det första arbetet på kontinuerlig skyline frågebehandling.
REF föreslog skyline för flytta objekt.
2,222,714
Continuous Skyline Queries for Moving Objects
{'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']}
1,083
Vi presenterar en enkel metod för att överföra beroendetolkar från källspråk med märkta utbildningsdata till målspråk utan att märka utbildningsdata. Vi visar först att delexicalized parsers kan överföras direkt mellan språk, producerar betydligt högre noggrannhet än oövervakade parsers. Vi använder sedan en begränsningsdriven inlärningsalgoritm där begränsningar dras från parallell corpora för att projicera den slutliga tolken. Till skillnad från tidigare arbete med att projicera syntaktiska resurser visar vi att enkla metoder för att införa flera källspråk avsevärt kan förbättra den övergripande kvaliteten på de resulterande tolkarna. De projicerade tolkarna från vårt system resulterar i status-of-theart prestanda jämfört med tidigare studerade oövervakade och projicerade tolksystem över åtta olika språk.
REF visar att delexikaliserade parsrar kan överföras direkt mellan olika språk, vilket ger betydligt högre noggrannhet än oövervakade parsrar.
6,698,104
Multi-Source Transfer of Delexicalized Dependency Parsers
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,084
Abstract-Flooding i lätta trådlösa sensornätverk är mycket kostsamt på grund av asynkrona scheman för sensornoder. För att anpassa befintliga Flood Tree-baserade konstruktioner för lågkapacitetsnätverk, ska vi schemalägga noder av vanliga föräldrar vaknar upp samtidigt. Traditionellt uppnås energioptimalitet i ett anvisat översvämningsträd genom att välja föräldrar med högsta länkkvalitet. I detta arbete visar vi att förvånansvärt mer energi kan sparas genom att överväga länk korrelation. Specifikt, detta arbete först experimentellt verifierar förekomsten av länk korrelation och matematiskt bevisar att energiförbrukningen av sändningar kan minskas genom att låta noder med högre korrelation ta emot paket samtidigt. En ny översvämningsplan, Corrricated Flooding, är sedan utformad så att noder med hög korrelation tilldelas en vanlig avsändare och deras mottagningar av ett sändningspaket erkänns endast av en enda ACK. Denna unika funktion förbättrar effektivt ACK implosion problem, spara energi på både datapaket och ACKs. Vi utvärderar korrelerad översvämning med omfattande simuleringar och en testbäddsimplementering med 20 MICAz noder. Vi visar att korrelerad översvämning sparar mer än 66% energi på ACKs och 15%-50% energi på datapaket för de flesta nätverksinställningar, samtidigt som de har liknande prestanda på översvämningar förseningar och tillförlitlighet.
Guo m.fl. I Ref föreslogs ett översvämningsbaserat korrelerat översvämningssystem.
15,777,749
Correlated flooding in low-duty-cycle wireless sensor networks
{'venue': '2011 19th IEEE International Conference on Network Protocols', 'journal': '2011 19th IEEE International Conference on Network Protocols', 'mag_field_of_study': ['Computer Science']}
1,085
Abstract-This paper presenterar en anmärkningsvärt enkel, men ändå kraftfull, algoritm som kallas Coherence Pursuit (CoP) till robust Principal Component Analysis (PCA). Eftersom inigrar ligger i en lågdimensionell subrymd och mestadels är korrelerade, är det troligt att en iniger har en stark ömsesidig samstämmighet med ett stort antal datapunkter. I motsats till detta erkänner inte utomstående strukturer med låga dimensioner eller bildar små kluster. I båda fallen är det osannolikt att en avvikelse kommer att ha en stark likhet med ett stort antal datapunkter. Eftersom CoP skiljer sig från en annan genom att jämföra deras överensstämmelse med övriga datapunkter. De ömsesidiga koherenserna beräknas genom att bilda grammatrisen för de normaliserade datapunkterna. Därefter återvinns den sökta subrymden från spännvidden för den delmängd av datapunkterna som uppvisar stark överensstämmelse med resten av datan. Eftersom CoP endast innebär en enkel matris multiplikation, är det betydligt snabbare än de toppmoderna robusta PCA algoritmer. Vi härleder analytiska prestandagarantier för CoP under olika modeller för fördelning av inliers och utliers i både bullerfria och bullriga inställningar. CoP är den första robusta PCA-algoritmen som samtidigt är icke-iterativ, bevisligen robust mot både ostrukturerade och strukturerade avvikelser och kan tolerera ett stort antal ostrukturerade avvikelser.
I ett annat arbete föreslog Rahmani och Atia Ref en algoritm kallad Coherence Pursuit (CoP) för Robust Principal Component Analysis (RPCA).
2,024,650
Coherence Pursuit: Fast, Simple, and Robust Principal Component Analysis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,086
Abstract-Online sociala nätverk (OSNs) har upplevt en enorm tillväxt under de senaste åren och blivit en de facto-portal för hundratals miljoner Internetanvändare. Dessa operativsystem erbjuder attraktiva medel för digitala sociala interaktioner och informationsutbyte, men ger också upphov till ett antal säkerhets- och integritetsfrågor. OSN:er gör det möjligt för användare att begränsa tillgången till delade data, men de tillhandahåller för närvarande inte någon mekanism för att genomdriva integritetsproblem avseende data som är förknippade med flera användare. I detta syfte föreslår vi en strategi för att möjliggöra skydd av delade uppgifter som är förknippade med flera användare i OSN. Vi formulerar en modell för tillträdeskontroll för att fånga kärnan i flerpartsauktoriseringskrav, tillsammans med ett flerpartspolicyspecifikationssystem och en mekanism för att se till att politiken efterlevs. Dessutom presenterar vi en logisk representation av vår passerkontrollmodell som gör att vi kan utnyttja funktionerna hos befintliga logiska lösare för att utföra olika analysuppgifter på vår modell. Vi diskuterar också en proof-of-concept prototyp av vårt arbetssätt som en del av en ansökan på Facebook och ger användbarhetsstudie och systemutvärdering av vår metod.
REF En systematisk lösning för att underlätta samarbetshantering av delade data i OSN tillhandahölls.
15,730,264
Multiparty Access Control for Online Social Networks: Model and Mechanisms
{'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']}
1,087
Abstract-Rate-Splitting Multiple Access (RSMA) är en allmän och kraftfull flera åtkomstram för downlink multiantenna system, och innehåller Space-Division Multiple Access (SDMA) och Non-Orthogonal Multiple Access (NOMA) som specialfall. RSMA bygger på linjärt förkodad hastighetssplittring med Successive Interference Annullation (SIC) för att avkoda en del av störningen och behandla den återstående delen av störningen som buller. Nyligen har RSMA visat sig överträffa både SDMA- och NOMA-hastigheten i ett brett spektrum av nätbelastningar (underladdade och överbelastade system) och användarinstallationer (med en mångfald av kanalriktningar, kanalstyrkor och kvaliteter av kanalstatsinformation vid sändaren). RSMA visade sig dessutom ge spektral effektivitet och QoS-förbättringar över NOMA vid en lägre beräkningskomplexitet för överföringsschemaläggaren och mottagarna. I detta dokument bygger vi på dessa resultat och undersöker RSMA:s energieffektivitet jämfört med SDMA och NOMA. Med tanke på en sändningskanal med flera ingångar, visar vi att RSMA är mer energieffektivt än SDMA och NOMA i ett brett spektrum av användare (med en mångfald av kanalriktningar och kanalstyrkor). Vi drar slutsatsen att RSMA är mer spektralt och energieffektivt än SDMA och NOMA.
Baserat på dessa resultat visar författarna i REF att RSMA är mer energieffektivt än SDMA och NOMA.
5,056,956
Energy Efficiency of Rate-Splitting Multiple Access, and Performance Benefits over SDMA and NOMA
{'venue': '2018 15th International Symposium on Wireless Communication Systems (ISWCS), Lisbon, 2018', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,088
Abstract-I detta papper, har vi föreslagit en ny iterated symmetrisk chiffer, som är utformad med Substitution och Permutation Network (SPN) struktur och beror på stark matematiskt byggd. Den använder en kompakt algoritm för krypterings- och dekrypteringsprocesser, som består av fyra huvudsteg som i stort sett liknar Advance Encryption Standard (AES)-stegen i sitt arbete. Börjar med SubByte-operationen, ReversibleShiftrows-operationen, ReversibleMixcolumns-operationen och Round-nyckeltillägget. De föreslagna åtgärderna i detta chiffer har genomförts på ett enkelt sätt relativt i både Encryption/Decryption på ett elegant sätt. Dessa fyra steg utformade för att minska hårdvarukraven och för att producera hög effektivitet, vilket håller krypterings- och dekrypteringsprocessen i samma hastighet i hårdvaruenheterna och eliminerar skillnaden mellan utförandetider samt skapar en balans i framåt- och bakåtoperationer. Den föreslagna chiffer intresserad av modern design genom att anta nya algebraiska operationer och tydliga matematiska notationer för att säkerställa en hög säkerhetsnivå. Den föreslagna chiffer inte bygga plötsligt eller godtyckligt men det fungerar som en sekvens av utveckling och representerar som en lång process av design för lång tid, eftersom flera föreslagna chiffer har publicerats nyligen av oss som banade vägen för sin nya design, så den designade chiffer ärvde en bra egenskaper från en beprövade kända algoritmer funktioner för att producera hög motståndskraft mot alla kända attacker och att skicka en hög prestanda på många plattformar och i ett brett utbud av hårdvara och program.
Dawood REF föreslog en ny itererad symmetrisk chiffer, som är utformad med Substitution and Permutation Network (SPN) struktur och beror på stark matematiskt byggd.
56,046,938
New Symmetric Cipher Fast Algorithm of Revertible Operations' Queen (FAROQ) Cipher
{'venue': None, 'journal': 'International Journal of Computer Network and Information Security', 'mag_field_of_study': ['Computer Science']}
1,089
Planering och optimering av täckning är en av de viktigaste uppgifterna för en radionätsoperatör. Effektiv täckningsoptimering kräver noggrann täckningsuppskattning. Denna uppskattning bygger på geo-lokaliserade fält mätningar som samlas in idag under dyra körtester (DT) och kommer inom en snar framtid att rapporteras av användares mobila enheter tack vare tredje-Generation Partnership Project (3GPP) minimering av körtester (MDT) funktion. Denna funktion består av en automatisk rapportering av radiomätningar i samband med den geografiska placeringen av användarens mobila enhet. En sådan lösning är fortfarande kostsam i fråga om batteriförbrukning och signalerande overhead. Att förutse täckningen på en plats där inga mätningar finns tillgängliga är därför fortfarande en viktig och utmanande uppgift. Detta papper beskriver ett kraftfullt verktyg som ger en exakt täckning förutsägelse om hela området av intresse: Det bygger en täckning karta genom rumsligt interpolerande geo-lokaliserade mätningar med hjälp av Krigging teknik. Detta dokument är inriktat på att minska krigeringsalgoritmens beräkningskomplex genom att tillämpa den fasta rangen kriging (FRK). Prestandautvärderingen av FRK-algoritmen både på simulerade mätningar och verkliga fältmätningar visar en god avvägning mellan förutsägelseeffektivitet och beräkningskomplexitet. För att gå ett steg längre mot den operativa tillämpningen av den föreslagna algoritmen studeras ett flercelligt användningsfall. Simuleringsresultat visar goda resultat när det gäller täckningsförutsägelse och upptäckt av den bäst betjänande cellen. Index Terms-Coverage karta, förväntan-maximization (EM) algoritm, fast rang Kriging (FRK), radio miljö karta (REM), rumslig statistik, trådlöst nätverk. .............................................................................. Hennes nuvarande forskningsintressen omfattar radioutbredning, mätningar och fältförsök, kanalmodellering, radionätverksplanering och optimering i trådlösa nätverk samt geolokaliseringsteknik i både cellulära och internet-of-things-nätverk.
Braham m.fl. REF byggde täckningskartorna genom att använda den fasta rangen Kriging interpolation för att ytterligare minska beräknings komplexiteten jämfört med den traditionella 80768 Volume 7 2019 Kriging interpolation.
9,431,439
Fixed Rank Kriging for Cellular Coverage Analysis
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
1,090
Vi anser att problemet med svagt övervakad inlärning för objekt lokalisering. Med tanke på en samling bilder med annoteringar på bildnivå som visar närvaron/frånvaron av ett objekt, är vårt mål att lokalisera objektet i varje bild. Vi föreslår en neural nätverk arkitektur kallas uppmärksamhet nätverk för detta problem. Med tanke på en uppsättning kandidatregioner i en bild beräknar nätverket först en uppmärksamhetspoäng för varje kandidatregion i bilden. Därefter kombineras dessa kandidatregioner med deras uppmärksamhetspoäng för att bilda en vektor för hela bilden. Denna vektor används för att klassificera bilden. Målet lokalisering uppnås implicit via uppmärksamhet poäng på kandidatregioner. Vi visar att vår strategi uppnår överlägsen prestanda på flera referensdatauppsättningar.
De flesta liknar vår strategi, modellen i REF beräknar en uppmärksamhet poäng för varje plats i en bild.
31,967,546
Attention Networks for Weakly Supervised Object Localization
{'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,091
Abstract-Lasso, eller `1 legaliserade minst kvadrater, har undersökts i stor utsträckning för sina anmärkningsvärda gleshet egenskaper. I detta papper visas att lösningen till Lasso, förutom sin sparsamhet, har robusthet egenskaper: det är lösningen på ett robust optimeringsproblem. Detta får två viktiga konsekvenser. För det första ger robustheten en koppling mellan regularizern och en fysisk egenskap, nämligen bullerskydd. Detta möjliggör ett principiellt urval av regularizern, och i synnerhet generaliseringar av Lasso som också ger konvexa optimeringsproblem erhålls genom att överväga olika osäkerhetsuppsättningar. För det andra kan robusthet i sig användas som en väg för att utforska olika egenskaper hos lösningen. Det visas särskilt att lösningens robusthet förklarar varför lösningen är gles. Analysen och de specifika resultat som erhållits skiljer sig från standard resultat sparsamhet, vilket ger olika geometrisk intuition. Dessutom visas det att den robusta optimeringsformuleringen är relaterad till kärndensitetsuppskattning, och baserat på detta tillvägagångssätt, ett bevis på att Lasso är konsekvent ges, med användning av robusthet direkt. Slutligen bevisas ett teorem som säger att sparsamhet och algoritmisk stabilitet motsäger varandra, och Lasso är därför inte stabil.
Till exempel visar REF att man använder Lasso (dvs. 1 legalisering) i en linjär regressionsmodell motsvarar ett robust optimeringsproblem.
1,139,917
Robust Regression and Lasso
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,092
Att klassificera videor efter innehåll semantik är ett viktigt problem med ett brett spektrum av tillämpningar. I detta dokument föreslår vi en hybrid djupinlärning ram för videoklassificering, som kan modellera statisk rumslig information, kortsiktiga rörelser, samt långsiktiga temporal ledtrådar i videorna. Specifikt utvinns de rumsliga och kortsiktiga rörelsefunktionerna separat av två konvolutionella neurala nätverk (CNN). Dessa två typer av CNN-baserade funktioner kombineras sedan i en reglerad funktion fusionsnätverk för klassificering, som kan lära sig och utnyttja funktionsrelationer för förbättrad prestanda. Dessutom, Long Short Term Memory (LSTM) nätverk tillämpas ovanpå de två funktionerna för att ytterligare modellera långsiktiga temporal ledtrådar. Det viktigaste bidraget från detta arbete är det hybridlärande ramverk som kan modellera flera viktiga aspekter av videodata. Vi visar också att (1) kombinera rumsliga och kortsiktiga rörelsefunktioner i det regulariserade fusionsnätverket är bättre än direkt klassificering och fusion med CNN med ett softmax-skikt, och (2) den sekvensbaserade LSTM är mycket komplement till den traditionella klassificeringsstrategin utan att ta hänsyn till temporal ramordningar. Omfattande experiment utförs på två populära och utmanande riktmärken, UCF-101 Human Actions och Columbia Consumer Videos (CCV). När det gäller båda riktmärkena uppnår vårt ramverk mycket konkurrenskraftiga resultat: 91,3 % på UCF-101 och 83,5 % på CVC.
Författarna i REF föreslår en hybrid djupinlärning ram för videoklassificering som kan modellera statisk rumslig information, kortsiktig rörelse, samt långsiktiga temporal ledtrådar i videorna.
9,367,123
Modeling Spatial-Temporal Clues in a Hybrid Deep Learning Framework for Video Classification
{'venue': "MM '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,094
Abstract-Delay Tolerant Network (DTN) består av noder med små och begränsade resurser inklusive kraft och minneskapacitet. Vi föreslår att DTN används som ett alternativt kommunikationsmedel för spridning av nödinformation i en evakuering efter katastrof. Vi undersöker DTN:s prestanda när det gäller att tillhandahålla nödkommunikationstjänster under paketöverfall. Vi överväger internt motiverade attacker där de noder som ingår i räddningsteamet äventyras med skadliga beteenden och därmed släpper paket för att störa meddelandespridningen under evakueringsoperationen. Ett sätt att minska det skadliga beteendet och förbättra DTN:s nätverksprestanda är att använda incitament för att utbyta information mellan noder. Till skillnad från befintliga system, anser vi Basic Watchdog Detection System som upptäcker och agerar mot fel uppförande noder för att minska deras totala inverkan på nätverkets prestanda. Vi utformar en Collaborative Trust Management Scheme (CTMS) som är baserad på Bayesian detektion watchdog strategi för att upptäcka själviska och skadliga beteenden i DTN noder. Vi har utvärderat vårt föreslagna CTMS genom omfattande simuleringar och jämfört våra resultat med andra befintliga system. Våra utvärderingar visar att användningen av lämpliga samarbetsstrategier mellan väluppfostrade noder kan förbättra prestandan hos Watchdog system med hänsyn till leveransförhållandet, routing kostnad och meddelandet försening från källan noden till destination noden.
CTMS REF använder ett gemensamt förtroendesystem för att upptäcka och förhindra skadliga nodbeteenden.
12,188,288
A collaborative trust management scheme for emergency communication using delay tolerant networks
{'venue': '2016 8th Advanced Satellite Multimedia Systems Conference and the 14th Signal Processing for Space Communications Workshop (ASMS/SPSC)', 'journal': '2016 8th Advanced Satellite Multimedia Systems Conference and the 14th Signal Processing for Space Communications Workshop (ASMS/SPSC)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
1,095
Antag att vi får en graf G tillsammans med två ordentliga vertex k-färger av G, α och β. Hur lätt kan vi avgöra om det är möjligt att omvandla α till β genom att omfärga hörn av G en i taget, se till att vi alltid har en korrekt k-färgning av G? Detta beslutsproblem är trivialt för k = 2, och decidable i polynom tid för k = 3. Här bevisar vi att det är PSPACE-komplett för alla k ≥ 4. I synnerhet visar vi att problemet fortfarande PSPACE-komplett för bipartit grafer, samt för: (i) planar grafer och 4 ≤ k ≤ 6, och (ii) bipartit planar grafer och k = 4. Dessutom är k-värdena i (i) och (ii) snäva, i den meningen att det alltid är möjligt att omfärga α till β för större värden av k. Vi ställer också ut, för varje k ≥ 4, en klass av grafer {G N,k : N till N * }, tillsammans med två k-färger för varje G N,k, sådan att det minsta antalet omfärgning steg som krävs för att omvandla den första färgen till den andra är superpolynomial i storleken på grafen: det minsta antalet steg är och (2 N ), medan storleken på G N är O(N 2 ). Detta är i skarp kontrast till k = 3 fall, där det är känt att det minsta antalet omfärgning steg är som mest kvadratisk i antalet hörn. Vi visar också att en klass av bipartit grafer kan konstrueras med denna egenskap, och att (i) för 4 ≤ k ≤ 6 planar grafer och (ii) för k = 4 bipartit planar grafer kan konstrueras med denna egenskap. Detta ger en anmärkningsvärd överensstämmelse mellan problemets användbarhet och dess underliggande struktur.
Problemet förblir PSPACE-komplett för bipartit grafer när k ≥ 4, för plana grafer när 4 ≤ k ≤ 6 och för planar bipartit grafer för k = 4 REF.
15,163,376
Finding Paths between Graph Colourings : PSPACE-completeness and Superpolynomial Distances
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,096
Vi studerar problemet med domänsökning där en domän är en uppsättning skilda värden från ett ospecificerat universum. Vi använder Jaccard set inneslutning score, definierat som tillQ med X och/eller Q, som ett mått på relevansen av en domän X för en frågedomän Q. Vårt val av Jaccard uppsättning inneslutning över Jaccard likhet som ett mått på relevans gör vårt arbete särskilt lämpligt för att söka Open Data och data på webben, eftersom Jaccard likhet är känd för att ha dålig prestanda över uppsättningar med stora skillnader i deras domänstorlekar. Vi visar att domänerna som finns i flera öppna data- och webbdatabaser i verkligheten visar en power-law-distribution över deras domänstorlekar. Vi presenterar en ny indexstruktur, Locality Sensitive Hashing (LSH) Ensemble, som löser problemet med domänsökning med hjälp av set inneslutning på Internet skala. Vår indexstruktur och sökalgoritm klarar av datavolym och skev med hjälp av dataskisser med Minwise Hashing och domänpartitionering. Vår indexstruktur utgår inte från en föreskriven uppsättning datavärden. Vi konstruerar en kostnadsmodell som beskriver noggrannheten hos LSH Ensemble med en given partitionering. Detta gör att vi kan formulera datapartitioneringen för LSH Ensemble som ett optimeringsproblem. Vi bevisar att det finns en optimal partitionering för all datadistribution. Dessutom, för dataset efter en powerlaw-distribution, som observerats i Open Data och Web data corpora, visar vi att den optimala partitioneringen kan approximeras med hjälp av liksidiga, vilket gör det särskilt effektivt att använda i praktiken. Vi utvärderar vår algoritm med hjälp av verkliga data (Canadian Open Data och WDC Web Tables) som innehåller upp till tre miljoner domäner. Experimenten visar att vårt index konsekvent överträffar andra ledande alternativ i noggrannhet och prestanda. Förbättringarna är mest dramatiska för data med stor skev i domänstorlekarna. Även på tre miljoner domäner, vårt index upprätthåller frågeprestanda med under 50 millisekunders svarstid. Detta är en utökad version.
Dessutom, för att hitta fogbara tabeller, Zhu el al. REF studerade domänsökningen som är problemet med att hitta attribut som i hög grad innehåller värdena för en frågeattribut.
1,074,108
LSH Ensemble: Internet Scale Domain Search
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
1,097
Vi introducerar Ternary Weight Networks (TWN) -neurala nätverk med vikter begränsade till +1, 0 och -1. L2-avståndet mellan de fulla (flytande eller dubbla) precisionsvikterna och de ternära vikterna tillsammans med en skalfaktor minimeras. Med optimeringen äger TWNs hög kapacitet för modelluttryck som är tillräckligt bra för att approximera motsvarigheten till Full Precision Weight Networks (FPWNs). Dessutom uppnår TWN-värdena upp till 16x eller 32x-modellens komprimeringshastighet och äger mycket färre multiplikationer jämfört med FPWN-värdena. Jämfört med nyligen föreslagna Binary Precision Weight Networks (BPWNs), äger TWNs nästan 38x mer uttryckskraft i en 3×3 storlek filter, som ofta används i de flesta av de toppmoderna CNN-modeller som restnät eller VGG. Dessutom eliminerar TWNs singulariteten vid noll och konvergerar snabbare och stabilare vid träningstiden. Riktmärken på MNIST, CIFAR-10, och storskaliga ImageNet dataset visar att TWNs uppnår toppmoderna prestanda som bara är något sämre än FPWNs motsvarighet men överträffar de analoga BPWNs.
I REF föreslås ternära viktnät (TWN) som begränsar vikter till ternära värden (dvs. -1,0,1).
13,556,195
Ternary Weight Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,098
Påtryckningarna på organisationerna att ta ett tidigt och mer systematiskt förhållningssätt till säkerhet ökar. En nyckel till att upprätthålla säkerheten är att begränsa tillgången till värdefulla tillgångar. Vi betraktar tillträdespolitiken som säkerhetskrav som specificerar sådana begränsningar. Nuvarande tekniska kravmetoder är i allmänhet otillräckliga för att framkalla och analysera dessa typer av krav, eftersom de inte gör det möjligt att på ett tillfredsställande sätt representera komplexa organisatoriska strukturer och förfaranden som ligger till grund för politiken. I detta dokument diskuteras roller och varför de är viktiga i säkerhetsanalysen. Dokumentet relaterar roller till organisationsteori och hur de skulle kunna användas för att definiera tillträdespolicyer. På grundval av dessa begrepp presenteras en ram för analys av tillträdespolitiken. Nyckelord: åtkomstpolicy, säkerhetskrav, roller. Det finns ett ökande erkännande av betydelsen av kravteknik (RE) i utformningen och analysen av säkerhetspolitiken [1]. Termen politik är bred men kan tolkas som en regel, som kan vara av förfarandemässig eller teknisk natur, och är formulerad för att uppfylla ett mål. I detta dokument fokuserar vi på policyer för dataåtkomst och hur de regler som ska användas för att få tillgång till data kan uttryckas. Åtkomsten kontrolleras genom att behörigheter tilldelas användarna, så att de endast kan få tillgång till viss information. För att specificera krav på tillträdeskontroll krävs en förståelse av organisatoriska strukturer och förfaranden [12]. Vissa metoder för förnybar energi innehåller begrepp om aktörer eller agenter, men de tillåter inte uttryckligen att aktörer kopplas till organisatoriska grupper eller modellering av befogenheter, vilka båda är nyckeln till att identifiera användarnas ansvar när det gäller de informationstillgångar som ska skyddas. De idéer som presenteras i denna uppsats har kommit från ett projekt inom Säkerhetskravsgruppen vid Open University. Målen för detta arbete är att: 1. Identifiera begrepp och organisatoriska principer som ligger till grund för tillträdesbegränsningar och tillståndsförfaranden. 2. Utgångspunkten är följande: Utveckla en analytisk ram baserad på ovanstående begrepp för att specificera och analysera dessa typer av krav. 3. Vad är det som händer? Undersöka hur denna ram kan integreras i befintliga metoder för förnybar energi, t.ex. målbaserad analys. 4. Vad är det som händer? Validera ramverket med en uppsättning fallstudier, antingen genom att använda verkliga projekt eller genom att analysera fallstudier från litteraturen. I detta dokument rapporterar vi om resultatet av de två första målen. Dokumentet är upplagt på följande sätt: I avsnitt 2 diskuterar vi betydelsen av roller för att analysera säkerhetsmål och säkerhetspolicyer, svagheterna i nuvarande RE-metoder, och undersöker bidrag från forskningsvärlden för policy och åtkomstkontroll om hur roller kan användas för att formulera åtkomstpolicyer. I avsnitt 3 relaterar vi denna forskning till organisationsteori, och identifierar rollkategorier och hur de kan härledas från en organisationsstruktur. I avsnitt 4 inför vi en ram för att specificera och analysera rollbaserade tillträdesbegränsningar, som inkluderar en grafisk notation, och illustrera dess användning på ett hälso- och sjukvårdsexempel. Vi avslutar dokumentet med en kort sammanfattning och en diskussion om det framtida arbetet. 1 Robert Crook är också en oberoende konsult.
Ett annat arbete i samma riktning har presenterats av Crook et al. REF som föreslår ett ramverk för att definiera policyer för åtkomstkontroll som beaktar tilldelningen av användare till rollerna inom en organisation.
17,068,770
Modelling Access Policies using Roles in Requirements Engineering
{'venue': 'Information and Software Technology (Elsevier', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,099
Abstract-I detta papper utvecklar vi Gibbs provtagningsbaserade tekniker för att lära sig optimal placering av innehåll i ett mobilt nätverk. Vi betraktar situationen där en ändlig samling basstationer är utspridda på planet, var och en täcker en cell (eventuellt överlappande med andra celler). Mobila användare begär nedladdningar från en begränsad uppsättning innehåll enligt någon popularitet distribution som kan vara känd eller okänd för basstationer. Varje basstation har ett fast minnesutrymme som endast kan lagra en strikt delmängd av innehållet åt gången. Om en användare begär ett innehåll som inte lagras på någon av dess serveringsbasstationer måste innehållet därför laddas ner från backhaul. Därför anser vi att problemet med optimal innehållsplacering som minimerar hastigheten för nedladdning från backhaul, eller motsvarande maximerar cache träffhastigheten. Det är känt att när flera celler kan överlappa varandra (t.ex. under tät spridning av basstationer i små cellnätverk), är det inte optimalt att placera det mest populära innehållet i varje basstation. Det optimala problemet med innehållsplacering är dock NP-komplett. Med hjälp av idéer om Gibbs provtagning, föreslår vi enkla sekventiella innehåll uppdatera regler som avgör om ett innehåll på en basstation (om så krävs från basstationen) och vilket innehåll måste tas bort från motsvarande cache, baserat på kunskap om innehåll som lagras i sina angränsande basstationer. Uppdateringsregeln visas vara asymptotiskt konvergerande till optimal innehållsplacering för alla noder under kunskap om innehålls popularitet. Därefter utökar vi algoritmen för att ta itu med den situation där innehåll populariteter och celltopologi initialt är okända, men uppskattas som nya förfrågningar anländer till basstationerna; vi visar att vår algoritm som arbetar med löpande uppskattningar av innehåll populariteter och celltopologi konvergerar också asymptotiskt till den optimala innehållsplaceringen. Slutligen demonstrerar vi genom en enkel numerisk beräkning förbättringen av träffhastigheten i cache jämfört med den mest populära innehållsplaceringen och oberoende strategier för innehållsplacering i cache.
I REF, istället, författarna har utformat en distribuerad algoritm baserad på Gibbs provtagning, som visas för att asymptotiskt konvergera till optimal tilldelning.
12,689,915
Gibbsian On-Line Distributed Content Caching Strategy for Cellular Networks
{'venue': 'IEEE Trans. Wireless Commun. 17(2) pp:969 -981, 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,100
Detta dokument handlar om problemet med disambikering av namn. Med namndisambikering menar vi att särskilja personer med samma namn. Det är ett kritiskt problem i många kunskapshanteringstillämpningar. Trots mycket forskningsarbete har utförts, problemet är fortfarande inte löst och blir ännu allvarligare, särskilt med populariteten av Web 2.0. Tidigare ägde namnet ofta rum på ett övervakat eller oövervakat sätt. Detta dokument ger först en begränsningsbaserad probabilistisk modell för halvövervakad namndisambigering. Vi fokuserar särskilt på att undersöka problemet i ett socialt nätverk för forskare (http://arnetminer.org). Ramverket kombinerar begränsningar och distansundervisning i Euclidean, och gör det möjligt för användaren att förfina disambigeringsresultaten. Experimentella resultat på forskarens sociala nätverk visar att det föreslagna ramverket avsevärt överträffar grundmetoden med hjälp av oövervakad hierarkisk klusteralgoritm.
Till exempel, författare i REF ) föreslå en begränsningsbaserad probabilistisk modell för semi-övervakade namn disambiguation med hjälp av dolda Markov slumpmässiga fält (HMRF).
370,446
A constraint-based probabilistic framework for name disambiguation
{'venue': "CIKM '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,101
Det finns en hel del forskning intresse för att koda variabel längd meningar i fasta längd vektorer, på ett sätt som bevarar meningen betydelser. Två vanliga metoder inkluderar representationer baserade på genomsnitt ordvektorer, och representationer baserade på dolda tillstånd av återkommande neurala nätverk såsom LSTMs. Den mening vektorer används som funktioner för efterföljande maskininlärning uppgifter eller för förutbildning i samband med djupt lärande. Dock är inte mycket känt om de egenskaper som kodas i dessa mening representationer och om den språkinformation de fångar. Vi föreslår en ram som underlättar en bättre förståelse av de kodade representationerna. Vi definierar förutsägelseuppgifter kring isolerade aspekter av meningsstruktur (nämligen meningslängd, ordinnehåll och ordordning) och poäng representationer av förmågan att träna en klassificering för att lösa varje förutsägelse uppgift när du använder representationen som indata. Vi demonstrerar det potentiella bidraget från tillvägagångssättet genom att analysera olika meningsrepresentationsmekanismer. Analysen kastar ljus över de relativa styrkorna hos olika meningar som inbäddar metoder med avseende på dessa lågnivåförutsägelseuppgifter, och över effekten av den kodade vektorns dimensionalitet på de resulterande representationerna.
Men även icke-optimerade genomsnittliga ord inbäddningar kan koda värdefull information om meningen, såsom dess längd och ordinnehåll REF.
6,771,196
Fine-grained Analysis of Sentence Embeddings Using Auxiliary Prediction Tasks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,102
Sammanfattning av denna webbsida: Invaliditet efter nervskada, till exempel stroke, medför en enorm börda för patienter, familjer och samhället. Förutom den konventionella begränsade inducerad träning med en paretisk arm, bilaterala rehabilitering utbildning omfattar både ips bilaterala och kontralaterala sidor av den neurala skadan, passar bra med det faktum att båda armarna behövs i gemensamma aktiviteter i det dagliga livet (ADLs), och kan främja god funktionell återhämtning. I detta arbete, fusion av en gest sensor och en haptisk sensor med kraft återkoppling kapacitet har möjliggjort en bilateral rehabiliteringsträning terapi. Den Leap Motion gest sensorn upptäcker rörelsen av den friska handen, och omega.7 enheten kan upptäcka och hjälpa paretiska handen, enligt den utformade kooperativa uppgift paradigm, så mycket som behövs, med aktiv kraft återkoppling för att utföra manipuleringsuppgiften. Ett virtuellt scenario har byggts upp och rörelse- och kraftdata underlättar omedelbar syn- och ljudåterkoppling samt ytterligare analys av patientens funktionsförmåga. Detta uppgiftsorienterade bimanuella utbildningsparadigm rekryterar de sensoriska, motoriska och kognitiva aspekterna av patienten till en enda slinga, uppmuntrar patienternas aktiva engagemang i rehabiliteringsträning, stärker samarbetet mellan både friska och skadade händer, utmanar paretisk hands fingerfärdighet, passar lätt att använda hemma eller centraliserade institutioner och därmed utlovar effektiva möjligheter för rehabiliteringsträning.
I REF, fusion av LMC och Omega.7 haptisk sensor med kraft återkoppling kapacitet har möjliggjort en bilateral rehabiliteringsträning terapi.
2,310,941
Fusion of Haptic and Gesture Sensors for Rehabilitation of Bimanual Coordination and Dexterous Manipulation
{'venue': 'Sensors', 'journal': 'Sensors', 'mag_field_of_study': ['Engineering', 'Computer Science', 'Medicine']}
1,103
Den senaste forskningen har visat värdet av sociala mått för felprognoser. Ändå saknar många arkiv den information som krävs för en social analys. Så, vilka andra medel finns för att dra slutsatsen hur utvecklare interagerar kring sin kod? Ett alternativ är statiska kodmått som redan har visat sin användbarhet när det gäller att analysera förändringar i utvecklande programvarusystem. Men hjälper de också till med att förutsäga fel? För att ta itu med denna fråga valde vi en uppsättning statiska kodmått för att avgöra vilka klasser som är mest aktiva (dvs. de klasser där utvecklarna tillbringar mycket tid med att interagera med varandras design- och implementationsbeslut) i 33 Javasystem med öppen källkod som saknar detaljer om enskilda utvecklare. Framför allt bedömde vi fördelarna med dessa aktivitetscentrerade åtgärder i samband med \inspectionoptimering" À À À À en teknik som gör det möjligt att avläsa de minsta kodraderna för att hitta de största felen. För uppgiften att inspektera optimering dessa aktivitetsåtgärder utför samt (vanligtvis, inom 4%) en teoretisk övre gräns på utförandet av någon uppsättning åtgärder. Som ett resultat av detta hävdar vi att aktivitetscentrerade statiska kodmått är en utmärkt prediktor för defekter.
Lumpe m.fl. REF undersöker vikten av aktivitetscentrerade statiska kodmått.
41,207,011
LEARNING BETTER INSPECTION OPTIMIZATION POLICIES
{'venue': 'International Journal of Software Engineering and Knowledge Engineering', 'journal': 'International Journal of Software Engineering and Knowledge Engineering', 'mag_field_of_study': ['Computer Science']}
1,104
Trots det intensiva intresset för att förverkliga Semantic Web vision, de flesta befintliga RDF datahanteringssystem begränsas i termer av effektivitet och skalbarhet. Men den växande populariteten för RDF-formatet kräver utan tvekan en ansträngning för att kompensera dessa nackdelar. Sedd från ett relationellt databasperspektiv, härleds dessa begränsningar från själva karaktären av RDF-datamodellen, som är baserad på ett trefaldigt format. Den senaste forskningen har försökt ta itu med dessa begränsningar med hjälp av en vertikal uppdelning strategi, där separata tvåkolumntabeller är konstruerade för varje fastighet. Men som vi visar, detta tillvägagångssätt lider av liknande skalbarhet nackdelar på frågor som inte är bundna av RDF egendomsvärde. I detta dokument föreslår vi ett RDF-lagringssystem som använder RDF:s tredubbla natur som en tillgång. Detta system förstärker den vertikala partitioneringsidén och tar den till sin logiska slutsats. RDF-data indexeras på sex möjliga sätt, en för varje eventuell beställning av de tre RDF-elementen. Varje instans av en RDF-element är associerad med två vektorer; varje sådan vektor samlar element av en av de andra typerna, tillsammans med listor över den tredje typen resurser kopplade till varje vektor element. Därför uppstår ett sextupleindexingsprogram. Detta format möjliggör snabb och skalbar allmän frågebehandling; det ger betydande fördelar (upp till fem storleksordningar) jämfört med tidigare metoder för hantering av RDF-data, till priset av en femfaldig ökning av indexutrymmet i värsta fall. Vi dokumenterar experimentellt fördelarna med vår strategi för verkliga och syntetiska datamängder med praktiska frågor.
På senare tid föreslår Hexastore REF att RDF-data indexeras med hjälp av sex möjliga index, en för varje permutation av kolumnerna i trippeltabellen, vilket leder till kortare svarstider men också en femfaldig ökning av indexutrymmet i värsta fall.
12,640,766
Hexastore: sextuple indexing for semantic web data management
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
1,105
En ny metod för att upptäcka skottgränser i videosekvenser med hjälp av singular value decomposition (SVD) föreslås. Metoden bygger på att utföra singular värde sönderdelning på matrisen A skapad från 3D histogram av enstaka ramar. Vi har använt SVD för dess kapacitet att härleda en raffinerad funktionsutrymme med låg dimension från en högdimensionell rå funktionsutrymme, där mönster likhet lätt kan upptäckas. Metoden kan upptäcka nedskärningar och gradvisa övergångar, såsom upplöses och bleknar, som inte lätt kan upptäckas genom entropiåtgärder.
Cernekova m.fl. REF utförde Singular Value Decomposition (SVD) på RGB-färghistogram för varje ram för att minska dimensionaliteten hos funktionen vektor till tio.
1,707,907
Video shot segmentation using singular value decomposition
{'venue': "2003 International Conference on Multimedia and Expo. ICME '03. Proceedings (Cat. No.03TH8698)", 'journal': "2003 International Conference on Multimedia and Expo. ICME '03. Proceedings (Cat. No.03TH8698)", 'mag_field_of_study': ['Computer Science']}
1,106
Eftersom den intelligenta agenten är utvecklad för att vara smartare, mer komplex och ändå okontrollerbar, har ett antal problem uppmärksammats. Agenternas förmåga att fatta moraliska beslut har blivit en viktig fråga, när intelligenta agenter har utvecklat sig mer självständiga och människolika. I detta dokument föreslår vi Casuist BDI-Agent arkitektur som utökar kraften i BDI arkitektur. Casuist BDI-Agent arkitektur kombinerar CBR metod i AI och bottom up kasuist strategi i etik för att lägga till förmåga till etiskt resonemang till BDI-Agent.
Honarvar i REF föreslog Casuist BDI-Agent arkitektur som utökar kraften i BDI arkitektur.
12,230,706
Casuist BDI-Agent: A New Extended BDI Architecture with the Capability of Ethical Reasoning
{'venue': 'AICI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,107
Detta intervall används sedan för att matcha liknande dolda tillståndsmönster som visas i Match View (b). Urvalet görs genom att ange en start-stopp-intervall i texten (c) och en aktiveringströskel (t) som leder till ett urval av dolda tillstånd (blå linjer). Start-stopp-området kan ytterligare begränsas med hjälp av mönsterplotten (d). Metaspåren nedan visar extra information per ordposition som POS (e1) eller de översta K-prognoserna (e2). Verktyget kan sedan matcha detta val med liknande dolda tillståndsmönster i datamängden med varierande längder (f), vilket ger inblick i de representationer som modellen lärt sig. Matchvyn innehåller dessutom användardefinierade metadata kodade som värmekartor (g1,g2). Färgen på en värmekarta (g2) kan kartläggas (h) till ordet matris (f) som gör att användaren kan se mönster som leder till ytterligare förfining av urvalet hypotes. Navigationshjälpmedel ger bekvämlighet (i1, i2). Abstract-Recurrent neurala nätverk, och i synnerhet långa korttidsminne (LSTM) nätverk, är ett anmärkningsvärt effektivt verktyg för sekvensmodellering som lär sig en tät svart-box dold representation av deras sekventiella ingång. Forskare som är intresserade av att bättre förstå dessa modeller har studerat förändringarna i dolda tillstånd representationer över tid och lagt märke till vissa tolkningsbara mönster men också betydande buller. I detta arbete presenterar vi LSTMVIS, ett visuellt analysverktyg för återkommande neurala nätverk med fokus på att förstå dessa dolda tillståndsdynamik. Verktyget gör det möjligt för användare att välja en hypotes indataintervall för att fokusera på lokala tillstånd förändringar, att matcha dessa tillstånd förändringar till liknande mönster i en stor datauppsättning, och att anpassa dessa resultat med strukturella kommentarer från deras domän. Vi visar flera användningsfall av verktyget för att analysera specifika dolda tillstånd egenskaper på dataset som innehåller häckning, frasstruktur, och ackord progressioner, och visar hur verktyget kan användas för att isolera mönster för ytterligare statistisk analys. Vi karakteriserar domänen, de olika intressenterna och deras mål och uppgifter. Långsiktiga användningsdata efter att ha satt verktyget online visade stort intresse för maskininlärning gemenskapen.
Strobelt m.fl. REF utvecklat LSTMVis, ett allmänt syfte visuell analys verktyg för att inspektera dolda tillstånd värden i återkommande neurala nätverk.
25,127,323
LSTMVis: A Tool for Visual Analysis of Hidden State Dynamics in Recurrent Neural Networks
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
1,108
I detta dokument studerar vi problemet med att skydda privatlivet i publiceringen av data som är av värde. Överväga en samling transaktionsdata som innehåller detaljerad information om objekt som köpts tillsammans av individer. Även efter att ha tagit bort alla personliga egenskaper hos köparen, som kan fungera som länkar till hans identitet, är offentliggörandet av sådana uppgifter fortfarande föremål för integritet attacker från motståndare som har partiell kunskap om uppsättningen. Till skillnad från de flesta tidigare verk skiljer vi inte ut data som känsliga och icke-känsliga, men vi betraktar dem både som potentiella kvasi-identifierare och potentiella känsliga data, beroende på motpartens synvinkel. Vi definierar en ny version av k-anonymitetsgarantin, k m-anonymiteten, för att begränsa effekterna av datadimensionaliteten och föreslår effektiva algoritmer för att omvandla databasen. Vår anonymiseringsmodell bygger på generalisering istället för undertryckande, vilket är den vanligaste praxisen i relaterade arbeten på sådana data. Vi utvecklar en algoritm som hittar den optimala lösningen, dock till en hög kostnad vilket gör den inte tillämplig för stora, realistiska problem. Sedan föreslår vi två giriga heuristiker, som skalar sig mycket bättre och i de flesta fall hittar en lösning som ligger nära det optimala. De föreslagna algoritmerna utvärderas experimentellt med hjälp av verkliga datauppsättningar.
Manolis Terrovitis et al REF föreslog k-anonymiseringsproblem av set-värderade data.
1,539,268
Privacy-preserving anonymization of set-valued data
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
1,109
Den senaste tekniken för maskinöversättning är fortfarande långt ifrån att producera översättningar av hög kvalitet. Denna nackdel leder oss att införa en alternativ strategi till översättningsproblem som för in mänsklig expertis i maskinöversättning scenariot. Inom denna ram, nämligen Computer Assisted Translation (CAT), interagerar mänskliga översättare med ett översättningssystem, som ett hjälpmedel, som dinamiskt erbjuder, en lista över översättningar som bäst kompletterar den del av meningen som redan översatts. I detta dokument presenteras finita statsgivare som kandidatteknik i CAT-paradigmet. Lämpligheten av denna teknik utvärderas på en skrivare manuell corpus och resultat från preliminära experiment bekräftar att mänskliga översättare skulle minska till mindre än 25% mängden arbete som ska göras för samma uppgift.
I REF presenteras finita statsgivare som kandidatteknik i CAT-paradigmet.
6,098,385
From Machine Translation To Computer Assisted Translation Using Finite-State Models
{'venue': 'SIGDAT Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,110
Abstract-Mobile crowdsourced sensation (MCS) är ett nytt paradigm som drar nytta av genomträngande smartphones för att effektivt samla in data, vilket möjliggör många nya applikationer. För att uppnå god servicekvalitet för en MCS-applikation krävs incitamentsmekanismer för att locka till sig fler användare. De flesta av de befintliga mekanismerna gäller endast offline-scenariot där all användarinformation är känd på förhand. Tvärtom fokuserar vi på ett mer realistiskt scenario där användarna anländer en efter en online i en slumpmässig ordning. Baserat på online auktionsmodellen undersöker vi problemet att användare lämnar in sina privata typer till crowdsourcer när de anländer, och crowdsourcer syftar till att välja en undergrupp av användare innan en angiven tidsfrist för att maximera värdet av tjänster (förutsatt att vara en icke-negativ monoton submodulär funktion) som tillhandahålls av utvalda användare under en budgetbegränsning. Vi utformar två online-mekanismer, OMZ och OMG, som uppfyller beräkningseffektiviteten, individuell rationalitet, budget genomförbarhet, sannfärdighet, konsumentsuveränitet och konstant konkurrenskraft under noll ankomst-avgång intervall fall respektive ett mer allmänt fall. Genom omfattande simuleringar utvärderar vi prestandan och validerar de teoretiska egenskaperna hos våra onlinemekanismer.
Författarna i REF fokuserade på ett mer realistiskt scenario där användarna anländer en efter en online i slumpmässig ordning.
893,449
How to crowdsource tasks truthfully without sacrificing utility: Online incentive mechanisms with budget constraint
{'venue': 'IEEE INFOCOM 2014 - IEEE Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2014 - IEEE Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
1,111
Abstract-I detta papper, vi anser temporal mönster i trafikflöde tidsserier, och genomföra en djupt lärande modell för trafikflöde förutsägelse. Nedbrytningsbaserade metoder bryter ner den ursprungliga flödesserien till trend- och restserier, där trend beskriver det fasta tidsmönstret i trafikflöden och residualserier används för förutsägelse. Inspirerad av deträndningsmetoden föreslår vi DeepTrend, ett djupt hierarkiskt neuralt nätverk som används för trafikflödesförutsägelse som tar hänsyn till och extraherar den tid-varianta trenden. DeepTrend har två staplade lager: extraktionslager och förutsägelselager. Extraktionsskiktet, ett helt uppkopplat lager, används för att extrahera den tidsvarianta trenden i trafikflödet genom att mata den ursprungliga flödesserien med motsvarande enkla trendserier. Förutsägelselager, ett LSTM-skikt, används för att göra flödesförutsägelse genom att mata den erhållna trenden från utvinningslagrets utdata och beräknade residualserier. För att göra modellen mer effektiv behöver DeepTrend först förträngda lager för lager och sedan finjusteras i hela nätverket. Experiment visar att DeepTrend märkbart kan öka förutsägelsens prestanda jämfört med några traditionella förutsägelsemodeller och LSTM med deträndningsbaserade metoder.
Modellen består av ett extraktionslager och ett förutsägelselager, där extraktionslagret används för att extrahera trenderna för rådata och trenderna används av förutsägelselagret för att göra förutsägelser REF.
35,644,104
DeepTrend: A Deep Hierarchical Neural Network for Traffic Flow Prediction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,112
Den ihållande prestandan hos snabba processorer är kritiskt beroende av cacheprestanda. Cache prestanda i sin tur beror på lokaliseringen av referens. När ett operativsystem byter sammanhang kan antagandet om plats brytas eftersom instruktionerna och uppgifterna för den nyligen planerade processen kanske inte längre finns i cache(er). Sammanhangsväxling har således en kostnad över den som är associerad med den för de transaktioner som utförs av kärnan. Vi matade adress spår av processer som körs på ett multi-tasking operativsystem genom en cache simulator, för att beräkna exakta cache-hit hastigheter över korta intervall. Genom att markera utmatningen av en sådan simulering när en sammanhangsbrytare inträffar, och sedan aggregera resultaten efter Context-switch för ett stort antal sammanhangsbrytare, är det möjligt att uppskatta den minskning av cacheprestandan som orsakas av en omkopplare. Beroende på cacheparametrar verkar nettokostnaden för ett sammanhangsbyte vara i tusentals cycies, eller tiotals till hundratals mikrosekunder.
REF utvärderade inverkan av sammanhangsbyte på Cycles Per Instruction (CPI) och cache missfrekvenser för olika cacheparametrar och fann att overheads för en genomsnittlig sammanhangsbrytare kan vara upp till tiotals till hundratals mikrosekunder.
9,051,432
The effect of context switches on cache performance
{'venue': 'ASPLOS IV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,113
Utmaningen för systemspecifikation är hur man visuellt och exakt fångar in statiska, dynamiska och realtidssystemegenskaper på ett mycket strukturerat sätt. Timed Cornmunicating Object-Z (TCOZ) är en integrerad formell notation som bygger på Object-Z:s styrkor i modellering av komplexa datastrukturer, och på Timed CSP:s styrkor i modellering av interaktioner i realtid. I detta papper; Vi demonstrerar metoder för att använda XMUXSL som ett omvandlingsverktyg för att visualisera TCOZ modeller i olika UML diagram och att animera TCOZ specificationer med en multi-paradigm programmeringsspråk -Oz.
Ett tillvägagångssätt demonstreras med hjälp av XML som i själva verket är ett omvandlingsverktyg för att analysera visualisera TCOZ modeller i olika UML diagram animering specifikation med en multiparadigm programmeringsspråk som diskuteras i REF.
16,521,853
A XML/XSL approach to visualize and animate TCOZ
{'venue': 'Proceedings Eighth Asia-Pacific Software Engineering Conference', 'journal': 'Proceedings Eighth Asia-Pacific Software Engineering Conference', 'mag_field_of_study': ['Computer Science']}
1,114
Abstrakt. Många nuvarande sammanhangsmedvetna system reagerar bara på den nuvarande situationen och förändringar i sammanhanget som sker. För att kunna förutse framtida situationer och uppvisa proaktivt beteende bör dessa system också vara medvetna om sitt framtida sammanhang. Eftersom det förutsagda sammanhanget är osäkert och kan vara fel, måste ansökningarna kunna bedöma kvaliteten på den förutsagda kontextinformationen. Detta gör det möjligt för ansökningar att fatta ett välinformerat beslut om huruvida de ska agera enligt förutsägelsen eller inte. I den här artikeln presenterar vi prognoskvalitetsmått för att utvärdera sannolikheten för framtida situationer. Dessa mätvärden är integrerade i en strukturerad metod för utveckling av förutsägelser, vilket illustreras av ett scenario för tillämpning av hälso- och sjukvård. Mätvärdena och metodiken tillgodoser behoven hos utvecklaren som strävar efter att bygga sammanhangsmedvetna program som förverkligar proaktivt beteende med avseende på tidigare, nuvarande och framtida sammanhang.
REF föreslår också att man förutser kontextinformation, men i motsats till tidigare arbete, överväger dessa författare att analysera kvaliteten på kontextinformation under prognosprocessen.
3,168,315
A Methodological Approach to Quality of Future Context for Proactive Smart Systems
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,115
Abstrakt. Det integrerade logikbaserade modellspråket Timed Communicating Object Z (TCOZ) är väl lämpat för att presentera kompletta och sammanhängande kravmodeller för komplexa realtidssystem. Utmaningen är dock hur man verifierar TCOZ-modellerna med verktygsstöd, särskilt för att analysera timingegenskaper. Specialiserad grafbaserad modelleringsteknik, Timed Automata (TA), har kraftfulla mekanismer för att designa realtidsmodeller med hjälp av flera klockor och har väl utvecklat automatiskt verktygsstöd. En svaghet med tekniskt stöd är bristen på högkvalitativa grafiska mönster för att stödja systematiska konstruktioner för komplexa system. Undersökningen av möjliga kopplingar mellan TCOZ och TA kan gynna båda teknikerna. För TCOZ kan TA:s verktygsstöd återanvändas för att kontrollera timingegenskaper. För TA kan en uppsättning komposerbara grafiska mönster definieras baserat på semantiken i TCOZ-konstruktionerna, så att dessa mönster kan återanvändas på ett generiskt sätt. I detta dokument definieras först de jämförbara grafiska TA-mönstren, och sedan presenteras regler för ljudomvandling och ett verktyg för att projicera TCOZ-specifikationer till TA. En fallstudie av ett järnvägsövergångssystem visas.
Senaste arbete REF föreslog en projektion från TCOZ specifikationer till Timed Automata Mönster för modellkontroll timing egenskaper med UPAAL.
5,105,245
Timed Patterns: TCOZ to Timed Automata
{'venue': 'ICFEM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,116
Sammanfattning Detta dokument föreslår en metod för att lära gemensamma inbäddningar av bilder och text med hjälp av en tvågrenig neurala nätverk med flera lager av linjära projektioner följt av icke-linjäriteter. Nätverket utbildas med hjälp av ett stort marginalmål som kombinerar cross-view ranking begränsningar med inom synhåll område struktur bevarande begränsningar inspirerad av metrisk inlärning litteratur. Omfattande experiment visar att vårt tillvägagångssätt får betydande förbättringar i noggrannheten för bild-till-text och text-till-bild hämtning. Vår metod uppnår nya state-of-theart resultat på Flickr30K och MSCOCO image-sentence dataset och visar löfte om den nya uppgiften att fras lokalisering på Flickr30K enheter dataset.
I synnerhet Wang et al. REF ) använda ett djupt neuralt nätverk för att lära gemensamma inbäddning av bilder och text; deras utbildning använder strukturbevarande begränsningar baserade på strukturerad matchning.
9,059,202
Learning Deep Structure-Preserving Image-Text Embeddings
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
1,117
Denna artikel visar att webben kan användas för att få frekvenser för bigrams som är osynliga i en given corpus. Vi beskriver en metod för att hämta räknas adjektiv-nom, substantiv-nom, och verb-objekt bigrams från webben genom att fråga en sökmotor. Vi utvärderar denna metod genom att visa: (a) en hög korrelation mellan webbfrekvenser och korpusfrekvenser; (b) en tillförlitlig korrelation mellan webbfrekvenser och rimlighetsbedömningar; (c) en tillförlitlig korrelation mellan webbfrekvenser och frekvenser som återskapas med hjälp av klassbaserad utjämning; (d) en bra prestanda av webbfrekvenser i en pseudodisambigering uppgift. 1 En granskare påpekar att informationsleverantörer som Lexis Nexis http://www.lexisnexis.com/ kan ha databaser som är ännu större än webben. Lexis Nexis ger tillgång till fulltext till nyhetskällor (inklusive tidningar, trådtjänster och utskrifter av sändningar) och juridiska data (inklusive rättspraxis, koder, förordningar, juridiska nyheter och laggranskningar). 2 Detta är antalet sidor indexerade av Google i december 2002, som uppskattas av Search Engine Showdown http://www.searchengineshowdown.com/. Beräkningslingvistik Volym 29, Nummer 3 Keller och Lapata Web Frekvenser för osedda Bigrams Hämtande Frekvenser från webben Datamängderna som användes i det nuvarande experimentet erhölls från British National Corpus (BNC) (se Burnard [1995]). BNC är ett stort synkroniskt korpus, bestående av 90 miljoner textord och 10 miljoner ord i tal. BNC är en balanserad corpus (dvs. den sammanställdes för att representera ett brett spektrum av dagens brittiska engelska). Den skriftliga delen innehåller bland annat prover från tidningar, tidskrifter, böcker (både akademiska och skönlitterära), brev och skol- och universitetsuppsatser. Den talade delen består av spontana samtal, inspelade från frivilliga, balanserade efter ålder, region och samhällsklass. Andra exempel på talade språk ingår också, allt från affärs- eller regeringsmöten till radioprogram och telefonin. Korpus representerar många olika stilar och varianter och är inte begränsad till något visst ämnesområde, genre eller register. För denna studie användes BNC för att extrahera data för tre typer av predicateargumentrelationer. Den första typen är adjektiv-nun bigrams, där vi antar att substantivet är det predikat som tar adjektivet som sitt argument. 3 Den andra predikat-argument typ vi undersökte är substantiv- substantiv föreningar. För dessa antar vi att det högra substantivet är det predikat som väljer det vänstra substantivet som argument (eftersom sammansatta substantiv i allmänhet är högerhövdade på engelska). För det tredje inkluderade vi verb-objekt bigrams, där verbet är predikatet som väljer objektet som argument. Vi betraktade endast direkta NP objekt; bigram består av verbet och huvudet substantivet av objektet. För var och en av de tre predikat-argument relationer, vi samlade två datamängder, en som innehåller sett bigrams (dvs., bigrams som förekommer i BNC) och en med osynliga bigrams (dvs, bigrams som inte förekommer i BNC). För de sedda adjektiv-nun bigrams, använde vi data från Lapata, McDonald, och Keller (1999), som sammanställde en uppsättning av 90 bigrams enligt följande. Först valdes 30 adjektiv slumpmässigt från en del-av-tal-taggad och lemmatized version av BNC så att varje adjektiv hade exakt två sinnen enligt WordNet (Miller et al. 1990) och var entydigt märkt som "adjektiv" 98,6% av tiden. Lapata, McDonald, och Keller använde den del-av-tal-taggade versionen som görs tillgänglig med BNC och märktes med hjälp av CLAWS4 (Leech, Garside, och Bryant 1994), en probabilistisk del av peech tagger, med felfrekvens varierar från 3% till 4%. Den lemmatiserade versionen av corpus erhölls med Karp et al.'s (1992) morfologisk analysator. De 30 adjektiven varierade i BNC-frekvensen från 1,9 till 49,1 per miljon ord, dvs. de täckte hela intervallet från ganska sällan förekommande till mycket frekventa objekt. Gsearch (Corley m.fl.) 2001), en diagramtolk som upptäcker syntaktiska mönster i en taggad corpus genom att utnyttja en användarspecificerad kontextfri grammatik och en syntaktisk fråga, användes för att extrahera alla substantiv som förekommer i en huvudmodifierare relation med ett av de 30 adjektiv. Exempel på syntaktiska mönster anges i tabell 1. I fallet med adjektiv som modifierar sammansättning substantiv, endast sekvenser av två substantiv inkluderades, och det högra förekommande substantivet ansågs huvudet. Bigrams med lämpliga substantiv eller substantiv med låg frekvens (mindre än 10 per miljon ord) förkastades. Detta var nödvändigt eftersom bigrams användes i experiment med infödda talare (se avsnitt 3.2), och vi ville minska risken för att inkludera ord som inte är främmande för försökspersonerna. För varje adjektiv, var uppsättningen av bigrams uppdelad i tre frekvensband baserade på en lika uppdelning av
Mer nyligen, REF utvärdera nyttan av att använda webb sökmotorer för att få frekvenser för osynliga bigrams.
281,742
Using the Web to Obtain Frequencies for Unseen Bigrams
{'venue': 'Computational Linguistics', 'journal': 'Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
1,118
Abstrakt. State-of-the-art metoder för bild-till-bild översättning med Generative Adversarial Networks (GANS) kan lära sig en kartläggning från en domän till en annan domän med hjälp av oparade bilddata. Dessa metoder kräver dock utbildning av en särskild modell för varje par av bilddomäner, vilket begränsar skalbarheten i hanteringen av mer än två bilddomäner. Dessutom har utbildningsfasen av dessa metoder det gemensamma problemet med modellkollaps som försämrar kvaliteten på de genererade bilderna. För att ta itu med dessa frågor föreslår vi en Dual Generator Generative Adversarial Network (G 2 GAN), som är en robust och skalbar metod som gör det möjligt att utföra oparerad bild-till-bild översättning för flera domäner med endast dubbla generatorer inom en enda modell. Dessutom utforskar vi olika optimeringsförluster för bättre utbildning av G 2 GAN, och gör därmed oparerad bild-till-bild-översättning med högre konsistens och bättre stabilitet. Omfattande experiment på sex allmänt tillgängliga datauppsättningar med olika scenarier, dvs. arkitektoniska byggnader, årstider, landskap och mänskliga ansikten, visar att den föreslagna G2 GAN uppnår överlägsen modellkapacitet och bättre produktionsprestanda jämfört med befintliga GAN-modeller för bild-till-bild-översättning.
Tang och al. REF föreslår G 2 GAN, som är en robust och skalbar metod som gör det möjligt att utföra oparerad bild-till-bild-översättning för flera domäner.
58,006,524
Dual Generator Generative Adversarial Networks for Multi-Domain Image-to-Image Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,119
Tvålinjär sammanslagning av Convolutional Neural Network (CNN) funktioner [22, 23], och deras kompakta varianter [10], har visat sig vara effektiva vid finkornig igenkänning, scen kategorisering, texturigenkänning och visuella frågor-svar uppgifter bland annat. Den resulterande representationen fångar andra ordningens statistik över konvolutionella egenskaper på ett översättningsmässigt invariantt sätt. I detta dokument undersöker vi olika sätt att normalisera denna statistik för att förbättra deras representationsstyrka. I synnerhet finner vi att matrisen kvadrat-rot normalisering erbjuder betydande förbättringar och överträffar alternativa system såsom matris logaritm normalisering i kombination med elementvis kvadrat-rot och 2 normalisering. Detta förbättrar noggrannheten med 2-3% på en rad finkorniga igenkänningsdata som leder till ett nytt toppmodernt. Vi undersöker också hur noggrannheten i matrisfunktionsberäkningar påverkar nätverksträning och utvärdering. I synnerhet jämför vi mot en teknik för att uppskatta matris fyrkantiga gradienter genom att lösa en Lyapunov ekvation som är mer numeriskt exakt än datorgradienter via en Singular Value Decomposition (SVD). Vi finner att även om SVD-gradienter är numeriskt felaktiga är den totala effekten på den slutliga noggrannheten försumbar när gränsfall hanteras försiktigt. Vi presenterar ett alternativt system för att beräkna lutningar som är snabbare och ändå erbjuder det förbättringar jämfört med baslinjemodellen. Slutligen visar vi att matrisen kvadratrot beräknas ungefär med hjälp av några Newton iterationer är precis lika exakt för klassificeringen uppgift men tillåter en ordning-av-magnitud snabbare GPU genomförande jämfört med SVD nedbrytning.
Förbättrad B-CNN REF visar att ytterligare matriskvadratrot normalisering innan elementvis kvadratrot och 2 −normalisering kan ytterligare uppnå stor förbättring.
12,529,686
Improved Bilinear Pooling with CNNs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,120
Traffic adaptive medium access Protocol (TRAMA) införs för energieffektiv kollisionsfri kanalåtkomst i trådlösa sensornätverk. TRAMA minskar energiförbrukningen genom att se till att ensändning, multisändning och sändning inte har några kollisioner, och genom att tillåta noder att byta till ett lågeffektivt, overksamt tillstånd när de inte sänder eller tar emot. Trama utgår från att tiden är slut och använder ett distribuerat valsystem baserat på information om trafiken vid varje nod för att avgöra vilken nod som kan överföras vid en viss tid. TRAMA undviker tilldelning av tidsslots till noder utan trafik att skicka, och gör det också möjligt för noder att avgöra när de kan bli sysslolösa och inte lyssna på kanalen med hjälp av trafikinformation. TRAMA visas vara rättvist och korrekt, eftersom ingen tomgång nod är en avsedd mottagare och ingen mottagare drabbas av kollisioner. TRAMA:s prestanda utvärderas genom omfattande simuleringar med hjälp av både syntet- och sensornätverksscenarier. Resultaten visar att TRAMA överträffar innehållsbaserade protokoll (t.ex. CSMA, 802.11 och S-MAC) samt schemaläggningsbaserade protokoll (t.ex. NAMA) med betydande energibesparingar.
TRAMA REF är ett energieffektivt schemaläggningsprotokoll som använder distribuerat valsystem för att tilldela ankomst- och avgångstider till noder.
2,984,777
Energy-efficient collision-free medium access control for wireless sensor networks
{'venue': "SenSys '03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,121
Vi föreslår att lära sig en 3D pose estimator genom att destillera kunskap från Non-Rigid Structure from Motion (NRSfM). Vår metod använder endast 2D landmärkesnoteringar. Inga 3D-data, multi-view/temporala bilder eller objektspecifika tidigare krävs. Detta minskar flaskhalsen på data, vilket är en av de viktigaste frågorna för övervakade metoder. Utmaningen för att använda NRSfM som lärare är att de ofta gör dåligt djup rekonstruktion när 2D-projektionerna har stark tvetydighet. Att direkt använda fel djup som hårt mål skulle påverka studenten negativt. Istället föreslår vi en ny förlust som binder djupförutsägelse till den kostnadsfunktion som används i NRSfM. Detta ger studenten möjlighet att göra beräkningar för att minska djupfel genom att associera med bildfunktioner. Validerad på H3.6M dataset, vår lärd 3D pose estimering nätverk uppnår mer exakt rekonstruktion jämfört med NRSfM metoder. Det överträffar också andra svagt övervakade metoder, trots att man använder betydligt mindre övervakning.
Wang m.fl. REF använder icke-rigid struktur från rörelse (NRSfM) alogrithm som lärare att lära 3D pose från 2D leder.
201,070,231
Distill Knowledge From NRSfM for Weakly Supervised 3D Pose Learning
{'venue': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'journal': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
1,122
Abstract-Hot fläckar i ett trådlöst sensornätverk framträder som platser under tung trafik belastning. Noder på sådana områden utarmar snabbt energiresurserna, vilket leder till avbrott i nättjänsterna. Detta problem är vanligt i scenarier för datainsamling där klusterhuvuden har en tung börda när det gäller att samla in och förmedla information. Reläbelastningen på CHs intensifieras särskilt när avståndet till diskbänken minskar. För att balansera trafikbelastningen och energiförbrukningen i nätet bör CH-rollen roteras mellan alla noder och klusterstorlekarna bör noga fastställas på olika delar av nätet. I detta dokument föreslås en distribuerad klusteralgoritm, Energieffektiv klusterbildning (EC), som bestämmer lämpliga klusterstorlekar beroende på humleavståndet till datasänkan, samtidigt som man uppnår en ungefärlig utjämning av nodlivslängder och minskade energiförbrukningsnivåer. Vi föreslår dessutom en enkel energieffektiv multihop datainsamling protokoll för att utvärdera effektiviteten i EG och beräkna den end-to-end energiförbrukning i detta protokoll, men EG är lämplig för alla datainsamling protokoll som fokuserar på energibesparing. Prestandaresultat visar att EC utökar nätverkets livslängd och uppnår energiutjämning effektivare än två välkända klusteralgoritmer, HEED och UCR. Index Terms-Energy-effektiv, klustering, trådlöst sensornätverk, multihop, hot spot problem.
En distribuerad klusteralgoritm energieffektiv klusterbildning (EC) läggs fram i REF, där klusterstorleken bestäms av humletalet till diskbänken för att ungefär balansera livslängden för noderna.
1,609,222
An Energy-Efficient Clustering Solution for Wireless Sensor Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,123
Abstract-String likhet gå som finner liknande strängpar mellan två stränguppsättningar är en viktig operation i många program, och har tilldragit sig betydande uppmärksamhet nyligen i databasen gemenskapen. En betydande utmaning i likhet gå är att genomföra en effektiv fuzzy match operation för att hitta alla liknande strängpar som inte kan matcha exakt. I detta dokument föreslår vi en ny likhetsmått, kallad "fuzzy token matchningsbaserad likhet", som utökar token-baserade likhetsfunktioner (t.ex. Jaccard likhet och Cosine likhet) genom att tillåta fuzzy match mellan två tokens. Vi studerar problemet med likhet gå med hjälp av denna nya likhetsmått och presentera en signatur-baserad metod för att ta itu med detta problem. Vi föreslår nya signatursystem och utvecklar effektiva beskärningsmetoder för att förbättra prestandan. Experimentella resultat visar att vår strategi uppnår hög effektivitet och resultatkvalitet och avsevärt överträffar de senaste metoderna.
Nyligen, Wang et al. REF utformade en ny likhetsfunktion genom att tolerera symboliska fel i token-baserad likhet och utvecklade effektiva algoritmer för att stödja likhet gå på sådana funktioner.
10,765,964
Fast-join: An efficient method for fuzzy token matching based string similarity join
{'venue': '2011 IEEE 27th International Conference on Data Engineering', 'journal': '2011 IEEE 27th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']}
1,124
Abstrakt. Evolutionär klusterbildning syftar till att fånga den timliga utvecklingen av kluster. Denna fråga är särskilt viktig när det gäller data från sociala medier som är naturligt tidsdrivna. I detta dokument föreslår vi en ny probabilistisk modellbaserad evolutionär klusterteknik. Temporal Multinomial Mixing (TMM) är en förlängning av klassisk blandning modell som optimerar funktionen samtidig förekomst i kompromissen med temporal jämnhet. Vår modell utvärderas för två nya fallstudier om åsiktsaggregation över tid. Vi jämför fyra olika probabilistiska klustermodeller och vi visar överlägsenheten i vårt förslag i uppgiften att exemplifiera kluster.
Nyligen, REF ta itu med denna fråga och föreslog Temporal Multinomial Blandning (TMM).
8,894,387
Temporal Multinomial Mixture for Instance-Oriented Evolutionary Clustering
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,125