src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
I detta dokument studerar vi lokaliseringsproblemen i storskaliga undervattenssensornätverk. De ogynnsamma vattenmiljöerna, nodrörligheten och den stora nätskalan innebär alla nya utmaningar, och de flesta nuvarande lokaliseringssystem är inte tillämpliga. Vi föreslår ett hierarkiskt tillvägagångssätt som delar upp hela lokaliseringsprocessen i två underprocesser: ankare nodlokalisering och vanlig nodlokalisering. Många befintliga tekniker kan användas i den förra. För den vanliga nodlokaliseringsprocessen föreslår vi ett distribuerat lokaliseringssystem som nyligen integrerar en 3-dimensionell Euclidean distansuppskattningsmetod med en rekursiv platsuppskattningsmetod. Simuleringsresultat visar att vår föreslagna lösning kan uppnå hög lokaliseringstäckning med relativt små lokaliseringsfel och låga kommunikationskostnader i storskaliga 3-dimensionella undervattenssensornätverk.
Dessutom Zhou et al. av "Localization for Large-Scale Underwater Sensor Networks" REF föreslår ett lokaliseringssystem som närmar sig problemet på ett områdesbaserat hierarkiskt sätt.
2,932,735
Localization for large-scale underwater sensor networks
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
201
Klassisk samarbetsfiltrering och innehållsbaserade filtreringsmetoder försöker lära sig en statisk rekommendationsmodell med tanke på träningsdata. Dessa tillvägagångssätt är långt ifrån idealiska inom mycket dynamiska rekommendationsdomäner såsom nyhetsrekommendation och beräkningsreklam, där uppsättningen av objekt och användare är mycket flytande. I detta arbete undersöker vi en adaptiv klusterteknik för innehållsrekommendation baserad på prospekterings-exploateringsstrategier i kontextuella multiarmade banditinställningar. Vår algoritm tar hänsyn till de samverkanseffekter som uppstår på grund av interaktionen mellan användarna med objekten, genom att dynamiskt gruppera användare baserat på de objekt som beaktas och samtidigt gruppera objekt baserat på likheten mellan de kluster som induceras över användarna. Den resulterande algoritmen utnyttjar därmed preferensmönster i data på ett sätt som liknar samarbetsfiltreringsmetoder. Vi tillhandahåller en empirisk analys av medelstora real-world datauppsättningar, visar skalbarhet och ökad förutsägelse prestanda (mätt med klick-genom-hastighet) över state-of-the-art metoder för klusterbanditer. Vi ger också en ångeranalys inom en standard linjär stokastisk buller inställning.
Collaborative filterbandits REF är en liknande teknik som samlar användarna baserat på sammanhang.
1,743,552
Collaborative Filtering Bandits
{'venue': "SIGIR '16", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
202
Att matcha efterfrågan på resurser ("belastning") med tillgången på resurser ("kapacitet") är ett grundläggande problem som uppstår inom många områden inom teknik, logistik och ekonomi och har övervägts i stor utsträckning både på Internet och i trådlösa nät. Den pågående utvecklingen av cellulära kommunikationsnät till täta, organiska och oregelbundna heterogena nätverk ("HetNets") har ökat lastmedvetenheten till ett centralt problem, och introducerar många nya finesser. Detta dokument förklarar hur flera långvariga antaganden om cellulära nätverk behöver omprövas i samband med en belastningsbalanserad HetNet: vi belyser dessa som tre djupt rotade myter som vi sedan skingrar. Vi undersöker och jämför de primära tekniska förhållningssätten till HetNet belastningsbalansering: (centraliserad) optimering, spelteori, Markov beslutsprocesser, och den nyligen populära cellområdet expansion (alias. "Publicering"), och dra konstruktionslektioner för ODDMA-baserade cellulära system. Vi identifierar också flera öppna områden för framtida prospektering. Mobila nätverk blir alltmer komplicerade, med heterogenitet i många olika designdimensioner. Till exempel kan en typisk smarttelefon ansluta till Internet via flera olika radiotekniker, inklusive 3G-cell (t.ex. HSPA eller EVDO), LTE och flera typer av WiFi (t.ex. 802.11g, n, eller ac), där vart och ett av dessa använder flera icke-överlappande frekvensband. Mobila basstationer (BS) blir också allt mer varierande, med traditionella makroceller ofta krymper till mikroceller, och ytterligare kompletteras med picocells, distribuerade antenner, och femtocells. Denna myt är djupt rotad inom områdena kommunikation och informationsteori, och faktiskt, även i de "fem bars" display på praktiskt taget varje mobiltelefon som existerar. Det var sant konventionellt, och är fortfarande "instantant". Till exempel är sannolikheten för korrekt detektion för en given konstellation monotont relaterad till detektionstiden SINR (dvs. eventuella kvarstående störningar som inte avlägsnats av mottagaren behandlas som buller), vilket bekräftas i alla kommunikationsteorier. Avbrott är också vanligtvis tänkt i termer av ett mål SINR, nämligen sannolikheten för att vara under det. Dessutom säger informationsteorin oss att uppnåelig datahastighet följer B log(1 + SNR), eller B log(1 + SINR) om interferensen modelleras som Gaussian brus, där B är bandbredden. Att öka datahastigheten verkar därför komma ner till att öka SNR (eller SINR) - vilket ger minskande avkastning på grund av loggen - eller förvärva mer bandbredd. Den kritiska saknade biten är belastningen på BS, som ger en vy av resursfördelning över tiden. Moderna trådlösa system fördelar dynamiskt resurser på en millisekunds tidsskala, så även ett 100 msek-fönster (ungefär det minsta perceptuella tidsfönstret för en människa) ger ett betydande medelvärde. Den klassiska kommunikations- och informationsteorin som i föregående stycke ger däremot bara en "snapshot" av hastighet och tillförlitlighet. Men användarfrekvensen är deras momentana hastighet multiplicerad med den andel resurser (tid/frekvensplatser) som de får använda, vilket för ett typiskt schemaläggningssystem (t.ex. proportionellt rättvis eller rund robin) är ca 1/K, där K är antalet andra aktiva användare på det BS i det bandet. Detta är ganska intuitivt: alla har upplevt stora nedgångar i genomströmningen på grund av trängsel vid rusningstider eller i trånga händelser, oavsett signalkvalitet, t.ex. "Jag har fem 1 Hädanefter ska vi inkludera WiFi AP som en typ av BS: en som använder olicensierat spektrum och en tvistebaserad 3 bar, varför kan jag inte skicka detta sms?" Den tekniska utmaningen är att belastningen K varierar både rumsligt och temporalt och därför är omöjlig att bestämma en priori för en viss basstation. Det är ofta svårt att ens hitta en bra modell för belastningen K: det är tydligt relaterat till täckningsområdet, eftersom större celler vanligtvis har fler aktiva användare, men också beror på andra faktorer som distribution av användare, trafikmodeller och andra extrinsiska faktorer. Ett av huvudmålen med detta dokument är att införa några nya metoder för att lasta-aware cellulära nätverk modeller, tillsammans med en uppskattning av begränsningarna i last-blind modeller. 2 Myt 2: "Spectrum Crunch" Det är en nästan universell artikel i tron att mängden elektromagnetiska spektrum som tilldelas trådlösa bredbandstillämpningar är bedrövligt otillräcklig. Det vi har är snarare en brist på infrastruktur, inte en brist på spektrum. Nästan alla håller med om att små celler bör läggas till i snabb takt för att minska överbelastningen av nätet, och att detta kommer att vara den viktigaste faktorn för att gå mot 1000x. De små cellerna (mikro, pico, femto) kommer emellertid att sättas in opportunistiskt, oregelbundet och på fasta platser och ha en viss mängd resurser som de kan tillhandahålla (dvs. spektrum och backhaul). I skarp kontrast flyttar de enheter som de betjänar runt och begär sporadiskt omfattande resurser från nätverket, medan de vid andra tillfällen är vilande. Den last som erbjuds varje basstation varierar därför dramatiskt över tid och rum. Ett litet cellnät kommer därför att kräva mycket mer proaktiv lastbalansering för att kunna utnyttja den nyutplacerade infrastrukturen på ett bra sätt. Naturligtvis, trots ovanstående myter, har många andra inom både industri och akademi insett vikten av att inkludera belastning i analysen av hastighet. Den förenande punkten är att modellering och optimering av belastning bör höjas för att ha en liknande status som mängden spektrum eller SINR. Men det är inte enkelt att göra detta på ett tekniskt rigoröst sätt. Utanför kommunikationssystem har lastbalansering länge studerats som ett tillvägagångssätt för att balansera arbetsbelastningen mellan olika servrar (i nätverk) och maskiner (i tillverkning) för att optimera mängder som resursutnyttjande, rättvisa, vänta/behandla förseningar, eller genomströmning. I framväxande trådlösa nätverk, på grund av de olika överföringskrafter och basstationer kapacitet, även med en ganska enhetlig användardistribution, "naturliga" användarföreningsmått som SINR eller RSSI kan leda till en stor belastning obalans. Som ett exempel, skillnaden mellan en maximal SINR och en optimal (sum log rate vise) association i en tre nivåer HetNet illustreras i Figur 1 Grundläggande, hastighetsoptimerad kommunikation kommer ner till en stor systemnivå optimering, där beslut som användaren schemaläggning och cell association är kopplade på grund av belastning och störningar i nätverket. I allmänhet, att hitta den verkligt optimala användar-server association är ett kombinatoriskt optimeringsproblem och komplexiteten växer exponentiellt med omfattningen av nätverket, vilket är en återvändsgränd. Vi ger en kort översikt över några viktiga tekniska metoder för lastbalansering i HetNets. Eftersom en allmän nyttomaximering av (lastviktad) hastighet, med förbehåll för en resurs eller / och kraftbegränsning, resulterar i ett kopplat förhållande mellan användarnas association och schemaläggning, är detta tillvägagångssätt NP hårt och inte kan beräknas även för blygsamma stora cellulära nätverk. Dynamisk trafik gör problemet ännu mer utmanande, vilket leder till ett långvarigt problem som har studerats ingående i köteori, med endast marginella framsteg, känd som det kopplade köproblemet. Ett sätt att göra problemet konvex är genom att anta en fullt laddad modell (dvs. alla BS sänder alltid) och tillåter användare att associera med flera BS, som övre gränser prestanda kontra en binär förening [3]. En grundläggande form är att maximera nyttan av lastviktad hastighet, under förutsättning att en resurs eller / och makt begränsning, där den binära association indikatorn är avslappnad till ett reellt tal mellan 0 och 1. Efter standardoptimeringsverktyg, nämligen dubbel nedbrytning, kan en distribuerad algoritm med låg komplexitet, som konvergerar till en nästan optimal lösning, sedan utvecklas. Som det kan observeras i figur 2, Det finns en stor (3.5x) 6 hastighetsvinst för "cell-edge" användare (bottom 5-10%) och en 2x hastighetsvinst för "median" användare, jämfört med en maximal mottagen effekt baserad association. Markov Decision Processes (MDPs) ger en ram för att studera den sekventiella optimeringen av diskreta tidsstokastiska system i närvaro av osäkerhet. Målet är att utföra åtgärder i det nuvarande tillståndet för att maximera den framtida förväntade belöningen. I samband med HetNets har MDP använts för att studera överlämnande mellan olika radioaccess teknologier 7 ger en möjlig metod för självorganiserande HetNets att kombinera fördelarna med både centraliserad och distribuerad design. Spelteori, eftersom en disciplin möjliggör analys av interaktiva beslutsprocesser, och ger praktiska metoder för utredning av mycket stora decentraliserade optimeringsproblem. Till exempel, en användarcentrerad metod, utan att kräva någon signalerande overhead eller samordning mellan olika accessnät, analyseras i [6]. Ett annat exempel är studien av dynamiken i nätverksval i [7], där användare inom olika serviceområden konkurrerar om bandbredd från olika trådlösa nätverk. Även spelteori är ett användbart verktyg, särskilt för tillämpningar i självorganiserande/dynamiska nätverk, konvergensen av resulterande algoritmer är i allmänhet inte garanterad. Även om algoritmerna konvergerar, ger de inte nödvändigtvis en optimal lösning, vilket tillsammans med stora overhead kan leda till ineffektiv användning. Dessutom, eftersom spelteorins huvudsakliga fokus ligger på strategiskt beslutsfattande, finns det inget slutet uttryck för att karakterisera förhållandet mellan ett prestandamått och nätverksparametrarna. Således, även om vi inte är övertygade om att spelteori är den bästa analysen eller designverktyg för HetNet lastbalansering, kan det ge viss insikt om hur okoordinerade UEs och BSs bör associera. Biased mottagen kraftbaserad användarorganisation kontroll är en populär suboptimum teknik för proaktivt avlasta användare till lägre kraftstationer och är en del av 3GPP standardisering [8] [9]. I denna teknik, användarna avlastas till mindre celler med hjälp av en association partisk. Formellt, om det finns K-kandidatnivåer tillgängliga för en användare att associera, då indexet för den valda nivån är (1) där B i är snedsteget för nivå i och P rx, i är den mottagna effekten från nivå i. Enligt överenskommelse är nivå 1 makrocellsnivån och har en bias på 1 (0 dB). Till exempel en liten cellfördel på 10 dB innebär att en UE skulle associera med den lilla cellen upp tills dess mottagna effekt var mer än 10 dB mindre än A naturliga frågan gäller optimalitet gapet mellan CRE och de mer teoretiskt jordade lösningar som tidigare diskuterats. Det är något förvånande och betryggande att en enkel per-tier-fördomsfullhet nästan uppnår den optimala lastmedvetna prestandan, om de sneda värdena väljs noggrant [3] (se bild. 2 )............................................................................................................... I allmänhet är det dock svårt att föreskriva optimala förutfattade meningar som utnyttjar optimeringstekniker. De tidigare verktygen och teknikerna försöker maximera en nyttofunktion U för den nuvarande nätverkskonfigurationen, för vilken vi karakteriserade vinsten i genomsnittlig prestanda som (2) där och är uppsättningen av lösningsutrymme. Alternativt kan dock en underliggande distribution för nätverkskonfigurationen utgöra ett annat problem i stället som i (3), där optimeringen är över det genomsnittliga verktyget. (3) Den senare formuleringen omfattas av stokastisk optimering, dvs. de berörda variablerna är slumpmässiga. Lösningen till (3) skulle säkert vara suboptimal för (2) -och redan vi observerade gapet mellan en optimerad men statisk CRE och den globalt optimala lösningen i den sista delen - men har fördelen att erbjuda mycket lägre komplexitet och overhead (både beräkning och meddelanden) kontra att åter optimera föreningarna för varje nätverk förverkliga. Stochastic geometri som en gren av tillämpad sannolikhet kan användas för endwing basstation och användarplatser i nätverket genom en punktprocess. Genom att använda Poisson point process (PPP) för att modellera användare och basstationer, i synnerhet, kan dragbara uttryck erhållas för nyckelmått som SINR och hastighet [11], som sedan kan användas för optimering. Detta tillvägagångssätt har också fördelen av att ge insikter om inverkan av viktiga systemnivåparametrar som överföringskrafter, densiteter och bandbredder för olika nivåer på konstruktionen av lastbalanseringsalgoritmer. Som ett exempel på tillämpligheten av detta ramverk, cellområde expansion har analyserats med hjälp av stokastisk geometri i [12] genom i genomsnitt över alla potentiella nätverkskonfigurationer, avslöjar effekten av viktiga nätverksparametrar i en koncis form. Modellering basstationer som slumpmässiga platser i HetNets gör den exakta association regionen och lastfördelning intractable. En analytisk approximation för associationsområdet föreslogs i [12], som sedan användes för lastfördelning (förutsatt enhetlig användarfördelning) och följaktligen kan man hitta en fördelning av skattesatsen i termer av biasparametrar per nivå [12] [13]. Den härledda räntefördelningen kan sedan användas för att hitta de optimala förvrängningarna helt enkelt genom att maximera den partiska räntefördelningen som en funktion av det sneda värdet. Vi undersöker nu flera designfrågor som introduceras med lastbalansering. Hur mycket till partiskhet? Kan interferenshantering hjälpa, hur kan det göras, och hur mycket är vinsten? När små celler kontinuerligt rullas ut över tiden, hur (eller gör) belastningsbalanseringen förändras när den lilla celltätheten ökar? I detta avsnitt besvarar vi dessa frågor, med de resultat som sammanfattas i tabell 1. Bias Values. Det finns två stora fall att överväga för partiskhet: co-channel utbyggnader (makro
I Ref. REF, författarna granskade olika system för att lösa belastningsbalansering problem, såsom centraliserad optimering, spelteorin, Markov beslutsprocess, och partiska system, och även nämnde några av de öppna utmaningarna.
8,861,881
An Overview of Load Balancing in HetNets: Old Myths and Open Problems
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
203
Det har funnits stort intresse för maskininlärning och algoritmiska spelteori samhällen på förståelse och användning av submodulära funktioner. Trots detta stora intresse är det inte mycket man vet om deras inlärningsförmåga med hjälp av data. Motiverade av tillämpningar, såsom prissättning varor i ekonomi, i detta dokument överväger PAC-stil lärande av submodulära funktioner i en distributionsmiljö. Ett problem instans består av en distribution på {0, 1} n och en verkligt värderad funktion på {0, 1} n som är icke-negativ, monoton och submodulär. Vi får poly(n) prover från denna fördelning, tillsammans med värdena för funktionen vid dessa provtagningspunkter. Uppgiften är att uppskatta värdet av funktionen till inom en multiplikativ faktor vid efterföljande provpunkter som dras från samma fördelning, med tillräckligt hög sannolikhet. Vi utvecklar den första teoretiska analysen av detta problem, vilket visar på ett antal viktiga och nästan snäva resultat. Till exempel, om den underliggande distributionen är en produktdistribution då vi ger en lärande algoritm som uppnår en konstant-faktor approximation (enligt vissa antaganden). Men för allmänna distributioner ger vi en överraskande Õ(n 1/3 ) nedre gräns baserat på en ny intressant klass av matroider och vi visar också en O(n 1/2 ) övre gräns. Vårt arbete kombinerar centrala frågor inom optimering (submodulära funktioner och matriser) med centrala ämnen inom lärande (distributionslärande och PAC-liknande analyser) och med centrala begrepp i pseudo-randomness (lossless expander grafer). Vår analys innebär en twist på de vanliga inlärningsteori modeller och avslöjar några intressanta strukturella och extrem egenskaper hos submodulära funktioner, som vi misstänker är användbara i andra sammanhang. I synnerhet, för att bevisa vår allmänna lägre gräns, använder vi förlustfria expanderare för att bygga en ny familj av matroider som kan ta vilt varierande rang värden på superpolynomiskt många uppsättningar; ingen sådan konstruktion var tidigare känd. Denna konstruktion visar oväntade yttre egenskaper hos submodulära funktioner.
Tidigare arbete med att lära submodulära funktioner faller in i tre kategorier: submodulär funktion regression REF, maximering av submodulära discriminant funktioner och minimering av submodulära discriminant funktioner.
2,064,904
Learning submodular functions
{'venue': "STOC '11", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
204
Abstract-Vehicular Ad hoc Networks (VANET) är ett av de mest utmanande forskningsområdena inom Mobile Ad Hoc Networks. I denna forskning föreslår vi en ny mekanism för att öka nätverkets synlighet genom att ta med informationen från periodiska säkerhetsmeddelanden (beacons) och infoga den i en "granntabell". Tabellen kommer att spridas till alla grannar som ger en bredare vision för varje fordon som tillhör nätverket. Det kommer också att minska risken för kollision vid vägkorsningar eftersom varje fordon kommer att ha förkunskaper om kommande fordon innan det når korsningen.
I Ref föreslog författarna hur man kan öka synligheten för nätverket i aggregeringsteknik.
9,552,265
Increasing Network Visibility Using Coded Repetition Beacon Piggybacking
{'venue': 'World Applied Sciences Journal 13 (1); 100-108, 2011, ISSN 1818-4952, \\c{opyright}IDOSI Publications, 2011', 'journal': None, 'mag_field_of_study': ['Computer Science']}
205
Ett uppkopplat Dominating Set (CDS) som fungerar som en virtuell ryggrad är ett effektivt sätt att minska omkostnaderna för routing i ett trådlöst sensornätverk. Dessutom är en kConnected m-Dominating Set (kmCDS) nödvändigt för feltolerans och routing flexibilitet. Vissa approximationsalgoritmer har föreslagits för att konstruera en kmCDS. De flesta av dem tar dock endast hänsyn till vissa specialfall där k = 1, 2 eller k ≤ m, eller inte är lätta att genomföra, eller har hög meddelande komplexitet. I detta dokument föreslår vi en ny distribuerad algoritm LDA med låg meddelande komplexitet att konstruera en kmCDS för allmänna k och m vars storlek garanteras vara inom en liten konstant faktor för den optimala lösningen när den maximala nodgraden är en konstant. Vi föreslår också en centraliserad algoritm ICGA med ett konstant prestandaförhållande för att konstruera en kmCDS. Teoretisk analys samt simuleringsresultat visas för att utvärdera de föreslagna algoritmerna.
I REF föreslog författarna en centraliserad algoritm, ICGA, som har ett konstant prestandaförhållande och kan konstruera k, m-CDS för allmänna k och m.
636,844
Construction algorithms for k-connected m-dominating sets in wireless sensor networks
{'venue': "MobiHoc '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
206
Abstrakt. I detta dokument föreslås ett tillvägagångssätt för att förbättra riktigheten i atlas-till-bild-registreringen med stora patologier. Istället för att direkt registrera en atlas till en patologisk bild, lär sig metoden en kartläggning från den patologiska bilden till en kvasinormal bild, för vilken mer exakt registrering är möjlig. Närmare bestämt, metoden använder en djup variationsrik convolutional encoder-dekoder nätverk för att lära sig kartläggningen. Metoden uppskattar dessutom osäkerheten i den lokala kartläggningen genom nätinferensstatistik och använder dessa uppskattningar för att minska bildregistreringens likhet i områden med hög osäkerhet. Prestanda av metoden kvantifieras med hjälp av syntetiska hjärntumör bilder och bilder från hjärnan tumör segmentering utmaning (BRATS 2015).
REF använde en Variational Auto-encoder för att lära sig en kartläggning från patologiska bilder till kvasinormala (pseudo friska) bilder för att förbättra atlas-till-bild registrering noggrannhet med stora patologier.
8,905,349
Registration of pathological images
{'venue': 'Simulation and synthesis in medical imaging : first International Workshop, SASHIMI 2016, held in conjunction with MICCAI 2016, Athens, Greece, October 21, 2016, Proceedings. SASHIMI (Workshop)', 'journal': 'Simulation and synthesis in medical imaging : first International Workshop, SASHIMI 2016, held in conjunction with MICCAI 2016, Athens, Greece, October 21, 2016, Proceedings. SASHIMI (Workshop)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
207
Abstract-I detta papper, kognitiv routing i kombination med spektrumavkänning och delning i en multi-channel multi-hop kognitiva radionätverk (CRN) undersöks. Med hänsyn till spektrumdynamiken i CRN föreslår vi ett opportunistiskt kognitivt routingprotokoll (OCR) som gör det möjligt för användare att utnyttja den geografiska lokaliseringsinformationen och upptäcka de lokala spektrumaccessmöjligheterna för att förbättra överföringsprestandan för varje humle. Närmare bestämt, baserat på platsinformation och kanalanvändningsstatistik, väljer en sekundär användare (SU) ut nästa humlerelä och anpassar sin överföring till de dynamiska spektrumaccessmöjligheterna i närområdet. Dessutom introducerar vi en ny mätmetod, nämligen kognitiv transportgenomströmning (CTT), för att fånga de unika egenskaperna hos CRN och utvärdera den potentiella relävinsten för varje reläkandidat. En heuristisk algoritm föreslås för att minska sök komplexiteten i det optimala urvalet av kanal och relä. Simuleringsresultat ges för att visa att våra föreslagna OCR väl anpassar sig till spektrumdynamiken och överträffar befintliga routingprotokoll i CRN. Index Terms-Cognitiv radio, multi-hop överföring, opportunistisk routing, dynamisk spektrumåtkomst.
Yongkang Liu m.fl. REF utformade ett routingprotokoll baserat på geografiska lägesuppgifter och kanaltillgänglighet.
2,444,885
Spectrum-Aware Opportunistic Routing in Multi-Hop Cognitive Radio Networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
208
Med hjälp av kommersiella molnerbjudanden, såsom Amazons EC2, kan användare fördela beräknade resurser på begäran och ta ut avgifter baserat på reserverade tidsintervall. Även om detta ger stor flexibilitet för elastiska applikationer, användare saknar vägledning för att välja mellan flera erbjudanden, för att slutföra sina beräkningar inom givna budgetbegränsningar. I detta arbete presenterar vi BATS, vår budgetfasta schemaläggare. Med hjälp av en liten uppgift prov, BaTS kan uppskatta kostnader och makespan för en given väska på olika moln erbjudanden. Det ger användaren ett val av alternativ innan utförandet och sedan schemalägger påsen enligt användarens preferenser. BATS kräver ingen a-prioriterad information om uppgifternas slutförandetider. Vi utvärderar BATS genom att efterlikna olika molnmiljöer på DAS-3 multicluster-systemet. Våra resultat visar att BATS korrekt uppskattar budget och makepan för de undersökta scenarierna; det användarvalda schemat utförs sedan inom de givna budgetbegränsningarna.
Att hantera molnresurser, Oprescu et al. REF utforma en budgetconstraint schemaläggare för BoTs, uppskatta kostnaderna och makepan för olika scenarier innan du utför den användarvalda schemat.
1,541,100
BUDGET ESTIMATION AND CONTROL FOR BAG-OF-TASKS SCHEDULING IN CLOUDS
{'venue': 'Parallel Process. Lett.', 'journal': 'Parallel Process. Lett.', 'mag_field_of_study': ['Computer Science']}
209
I detta dokument studeras ett system med flera användare med ett enda inflöde (MISO) för nedlänk för samtidig trådlös information och kraftöverföring (SWIPT), där en uppsättning mobila enantennastationer (MS) samtidigt får information och energi via kraftdelning (PS) från den signal som sänds av en basstation med flera antenner (BS). Vi strävar efter att minimera den totala transmissionseffekten vid BS genom att gemensamt utforma transmitterande strålformande vektorer och ta emot PS-förhållanden för alla medlemsstater under deras givna signal-till-interferens-plus-brusförhållande (SINR) begränsningar för informationsavkodning och avverkade effektbegränsningar för energiupptagning. För det första har vi det tillräckliga och nödvändiga villkoret för genomförbarheten av vårt formulerade problem. Därefter löser vi detta icke-konvexa problem genom att tillämpa tekniken för semidefinit avslappning (SDR). Vi bevisar att SDR verkligen är tajt för vårt problem och därmed uppnår sitt globala optimala. Slutligen föreslår vi två suboptimala lösningar med lägre komplexitet än den optimala lösningen baserad på principen om att separera optimeringen av transmitterande strålformning och ta emot PS, där zero-forcing (ZF) respektive SINR-optimala system för transmitterande strålformning tillämpas. Samtidig trådlös information och kraftöverföring (SWIPT), sändningskanal, energiskörd, strålformning, strömdelning, halvdefinit avkoppling.
I REF studeras ett multiuser MISO-nedlänksystem för SWIPT.
1,767,525
Joint Transmit Beamforming and Receive Power Splitting for MISO SWIPT Systems
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
210
Abstract Micro Aerial Vehicles (MAVs) med perching kapacitet kan användas för att effektivt placera sensorer på höjder. En stor utmaning för abborrning är att bygga en lättviktsmekanism som enkelt kan monteras på en MAV, vilket gör det möjligt att abborra (attach och avtag på kommando) till väggar av olika material. Hittills har endast ett fåtal system föreslagits som syftar till att göra det möjligt för MAV:er med percheringskapacitet. Vanligtvis kräver dessa lösningar antingen en känslig dynamisk flygmanöver framför väggen eller utsätta MAV för mycket höga slagkrafter när man kolliderar med huvudet först med väggen. I den här artikeln föreslår vi en mekanism på 4,6 g som gör det möjligt för MAV att sätta sig på väggar av naturliga och konstgjorda material som träd och målade betongfasader av byggnader. För att göra detta behövs ingen kontroll för MAV förutom att flyga huvudet först in i väggen. Mekanismen är utformad för att omvandla islagsimpulsen till en snappande rörelse som fäster små nålar i ytan och använder en liten elektrisk motor för att lossa från väggen och ladda mekanismen för nästa öppningssekvens. Baserat på denna princip dämpar det de påverkanskrafter som verkar på plattformen för att undvika skador på MAV. Vi utförde 110 sekventiella abborrar på en mängd olika substrat med en framgångsgrad på 100%. De viktigaste bidragen i denna artikel är i) utvärdering av olika konstruktioner av perchering, ii) beskrivning och formell modellering av en ny percheringsmekanism, och iii) demonstration och karakterisering av en funktionell prototyp på en mikroglider 1.
Ett litet glidfäste på väggar med användning av små nålar REF.
55,910,422
A perching mechanism for micro aerial vehicles
{'venue': None, 'journal': 'Journal of Micro-Nano Mechatronics', 'mag_field_of_study': ['Materials Science']}
211
Domänanpassning är avgörande för framgång i nya, osynliga miljöer. Adversariella anpassningsmodeller som tillämpas i funktionsutrymmen upptäcker domäninvarianta representationer, men är svåra att visualisera och ibland misslyckas med att fånga pixel-nivå och låg nivå domänskift. Det senaste arbetet har visat att generativa kontradiktoriska nätverk i kombination med begränsningar för cykelkonsistens är förvånansvärt effektiva när det gäller att kartlägga bilder mellan domäner, även utan användning av likriktade bildpar. Vi föreslår en ny discriminativt tränad modell för cykelkonsistent adversariell domänanpassning. CyCADA anpassar representationer på både pixel-nivå och funktionsnivå, upprätthåller cykelkonsistens samtidigt som man utnyttjar en aktivitetsförlust, och kräver inte anpassade par. Vår modell kan användas i en mängd olika visuella igenkännings- och förutsägelser. Vi visar nya state-of-the-art resultat över flera anpassningsuppgifter, inklusive sifferklassificering och semantisk segmentering av väg scener som visar överföring från syntetiska till verkliga domäner.
I synnerhet utnyttjar REF både bild- och funktionsnivåsanpassning i en oövervakad domänanpassningsmiljö med en enda källa.
7,646,250
CyCADA: Cycle-Consistent Adversarial Domain Adaptation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
212
I detta arbete presenterar vi en ny lokal deskriptor för videosekvenser. Den föreslagna deskriptorn bygger på histogram av orienterade 3D spatio-temporala gradienter. Vårt bidrag är fyrafaldigt. (i) För att beräkna 3D-gradienter för godtyckliga skalor utvecklar vi en minneseffektiv algoritm baserad på integrerade videor. ii) Vi föreslår en allmän kvantisering av 3D-orientering som baseras på regelbundna polyhedroner. (iii) Vi gör en fördjupad utvärdering av alla deskriptorparametrar och optimerar dem för åtgärdsigenkänning. (iv) Vi tillämpar vår deskriptor på olika åtgärdsdataset (KTH, Weizmann, Hollywood) och visar att vi överträffar toppmoderna.
Alexander och Al. föreslog en HOG-3D-deskriptor för videosekvenser, som använde histogram av orienterade 3D spatio-temporala gradienter för att karakterisera åtgärd REF.
5,607,238
A spatio-temporal descriptor based on 3D-gradients
{'venue': 'In BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
213
Abstrakt. Vi studerar de kompromisser som är involverade i den energieffektiva lokaliseringen och spårningen av mobila mål genom ett trådlöst sensornätverk. Vårt arbete fokuserar på att bygga upp ett ramverk för att utvärdera den grundläggande prestandan hos spårningsstrategier där endast en liten del av nätverket aktiveras när som helst. Vi jämför först naiv nätverksdrift med slumpmässig aktivering och selektiv aktivering. I dessa strategier kommer vinsterna i energibesparing på bekostnad av ökad osäkerhet i lokaliseringen av målet, vilket resulterar i minskad kvalitet på spårning. Vi visar att selektiv aktivering med en bra förutsägelsealgoritm är en dominerande strategi som kan ge order-of-magnitud energibesparingar med försumbar skillnad i spårning kvalitet. Vi anser sedan att duty-cycled aktivering och visa att det erbjuder en flexibel och dynamisk avvägning mellan energiutgifter och spårningsfel när det används i samband med selektiv aktivering.
Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. bygga upp ett ramverk för att utvärdera spårningsstrategierna i ett energimedvetet sammanhang REF.
1,827,831
Energy-Quality Tradeoffs for Target Tracking in Wireless Sensor Networks
{'venue': 'in International Symposium on Aerospace/Defense sensing Simulation and Controls, Aerosense', 'journal': None, 'mag_field_of_study': ['Computer Science']}
214
I detta dokument föreslås ett nytt grovt tillvägagångssätt för att upptäcka klassificeringsregler genom en process för kunskapsinduktion som väljer optimala beslutsregler med en minimal uppsättning funktioner som är nödvändiga och tillräckliga för klassificering av verkligt värderade data. En grov uppsättning ramverk för kunskapsupptäckt är formulerad för analys av intervallvärderade informationssystem som konverteras från verkligt värderade råa beslutstabeller. Den optimala funktionen urvalsmetod för informationssystem med intervall-värderade funktioner får alla klassificeringsregler gömda i ett system genom en kunskapsinduktionsprocess. Numeriska exempel används för att underbygga de begreppsmässiga argumenten.
En forskning upptäcker klassificeringsregler genom en kunskapsinduktionsprocess som väljer beslutsregler med en minimal uppsättning funktioner för verkligt värderad dataklassificering REF.
21,962,046
A rough set approach for the discovery of classification rules in interval-valued information systems
{'venue': 'Int. J. Approx. Reason.', 'journal': 'Int. J. Approx. Reason.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
215
Att skriva samtidiga program är en utmaning eftersom utvecklare måste överväga både funktionell korrekthet och prestandakrav. Många programanalyser och testtekniker har föreslagits för att upptäcka funktionsfel, t.ex. orsakade av felaktig synkronisering. Dock har lite arbete gjorts för att hjälpa utvecklare att ta itu med prestandaproblem i samtidiga program, t.ex. på grund av ineffektiv synkronisering. I detta dokument presenteras SyncProf, en konvergensfokuserad profileringsmetod som hjälper till att upptäcka, lokalisera och optimera synkroniseringsflaskhalsar. I motsats till traditionella profilerare, SyncProf utför upprepade gånger ett program med olika ingångar och sammanfattar observerade prestandabeteende. En viktig nyhet är en grafbaserad representation av relationer mellan kritiska sektioner, som är grunden för att beräkna prestandapåverkan av kritiska sektioner, för att identifiera grundorsaken till en flaskhals, och för att föreslå optimeringsstrategier för utvecklaren. Vi utvärderar SyncProf på 19 versioner av åtta C/C++ projekt med både kända och tidigare okända synkronisering flaskhalsar. Resultaten visar att SyncProf på ett effektivt sätt lokaliserar grundorsakerna till dessa flaskhalsar med högre precision än en toppmodern låsprofiler och att det föreslår värdefulla strategier för att undvika flaskhalsar. •Programvara och dess konstruktion → Programvarunoteringar och verktyg;
SyncProf REF använder Pin för att upptäcka, lokalisera och optimera synkroniseringens prestandaproblem.
15,969,517
SyncProf: detecting, localizing, and optimizing synchronization bottlenecks
{'venue': 'ISSTA 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']}
216
En vanlig form av sarkasm på Twitter består av en positiv känsla som kontrasteras med en negativ situation. Till exempel, många sarkastiska tweets inkluderar en positiv känsla, såsom "kärlek" eller "glädje", följt av ett uttryck som beskriver en oönskad aktivitet eller stat (t.ex., "ta examen" eller "bli ignorerad"). Vi har utvecklat en sarkasmkännare för att identifiera denna typ av sarkasm i tweets. Vi presenterar en ny bootstrapp algoritm som automatiskt lär sig listor över positiva känslofraser och negativa situation fraser från sarkastiska tweets. Vi visar att identifiera kontrasterande sammanhang med hjälp av de fraser som lärts genom bootstrappning ger bättre återkallande för sarkasm erkännande.
REF uppger att sarkasm är en kontrast mellan positivt känsloord och en negativ situation.
10,168,779
Sarcasm as Contrast between a Positive Sentiment and Negative Situation
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
217
Bakgrund: Forskning om händelsebaserad textutvinning från den biomedicinska litteraturen har ökat i popularitet för att underlätta utvecklingen av avancerade biomedicinska textutvinningssystem. Sådan teknik tillåter avancerad sökning, som går längre än dokument eller meningsbaserad hämtning. Befintliga händelsebaserade system ignorerar dock vanligtvis ytterligare information inom det textbaserade sammanhanget av händelser som bland annat kan avgöra om en händelse representerar ett faktum, en hypotes, ett experimentellt resultat eller en analys av resultat, om den beskriver ny eller tidigare rapporterad kunskap, och om den spekuleras eller förnekas. Vi hänvisar till sådan kontextuell information som metakunskap. Automatiskt erkännande av sådan information kan möjliggöra utbildning av system som möjliggör finare sökning av händelser enligt den metakunskap som är associerad med dem. Resultat: Baserat på en corpus av 1000 MEDLINE abstracts, fullt manuellt kommenterade med både händelser och tillhörande meta-kunskap, har vi konstruerat ett maskininlärning-baserat system som automatiskt tilldelar meta-kunskap information till händelser. Detta system har integrerats i EventMine, ett toppmodernt händelseextraktionssystem, för att skapa ett mer avancerat system (EventMine-MK) som inte bara extraherar händelser från text automatiskt, utan också tilldelar fem olika typer av meta-kunskap till dessa händelser. Meta-kunskapsmodulen i EventMine-MK utför med makro-genomsnittliga F-poäng i intervallet 57-87% på BioNLP'09 Shared Task corpus. EventMine-MK har utvärderats på BioNLP'09 Shared Task för att upptäcka negativa och spekulerade händelser. Våra resultat visar att EventMine-MK kan överträffa andra toppmoderna system som deltog i denna uppgift. Vi har konstruerat det första praktiska systemet som extraherar både händelser och tillhörande, detaljerad meta-kunskap information från biomedicinsk litteratur. Den automatiskt tilldelade meta-kunskapsinformationen kan användas för att förfina söksystem, för att ge ett extra sökskikt bortom enheter och påståenden, som behandlar fenomen som retoriska avsikter, spekulationer, motsägelser och negationer. Denna finare finare sökfunktion kan hjälpa till med flera viktiga uppgifter, t.ex. databassäkring (genom att hitta ny experimentell kunskap) och vägberikning (genom att tillhandahålla information för inferens). För att möjliggöra enkel integrering i textbrytningssystem tillhandahålls EventMine-MK som en UIMA-komponent som kan användas i den interoperabla textbrytningsinfrastrukturen U-Compare. Biomedicinsk textutvinning [1–3] har i stor utsträckning fokuserat på att känna igen relevanta biomedicinska enheter och binära relationer mellan dessa enheter (t.ex. protein-proteininteraktioner [4, 5], gensjukdomsföreningar [6, 7], etc.). Utvinning av biomedicinska händelser ur litteraturen I slutet av artikeln finns dock en fullständig lista över författarinformation som varit föremål för forskning om biomedicinsk behandling av naturligt språk, eftersom händelser är avgörande för att förstå biomedicinska processer och funktioner [3]. Händelser utgör strukturerade representationer av biomedicinsk kunskap. De är vanligtvis organiserade kring verb (t.ex. aktivera, hämma) eller nominella verb (t.ex. uttryck), som vi kallar triggeruttryck. Evenemangen har argument som bidrar till beskrivningen av evenemanget. Dessa argument, som antingen kan vara enheter (t.ex. p53) eller andra händelser, tilldelas ofta semantiska roller, som kännetecknar argumentets bidrag till
REF använder ett maskininlärningsbaserat tillvägagångssätt för att tilldela metakunskapskategorier till händelser.
827,074
Extracting semantically enriched events from biomedical literature
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
218
Abstract-Elektroniskt lärande har varit en av de främsta trenderna inom utbildning hittills. Denna betydelse riktar uppmärksamheten på en viktig förändring i utbildningsparadigmet. På grund av det föränderliga paradigmets komplexitet kräver inlärningens framtida dynamik en utveckling av kunskapsöverföring och utvärdering. Detta forskningsarbete försöker sätta i hand en futuristisk design av ett autonomt och intelligent e-lärande system. Där maskininlärning och användaraktivitetsanalys spelar rollen som en automatisk utvärderare för kunskapsnivån. Det är viktigt att bedöma kunskapsnivån för att anpassa innehållspresentationen och få en mer realistisk utvärdering av onlineinlärare. Flera klassificeringsalgoritmer används för att förutsäga elevernas kunskapsnivå och motsvarande resultat rapporteras. Dessutom föreslår denna forskning en modern design av en dynamisk inlärningsmiljö som följer de senaste trenderna inom e-lärande. De experimentella resultaten illustrerar en övergripande prestanda överlägsenhet av en stödvektormaskin modell i utvärdering av kunskapsnivåer; med 98,6% av korrekt klassificerade fall med 0,0069 medelvärde absolut fel.
NazeehGhatasheh: REF Denna forskning introducerade ett antal förbättringar av dynamiska ELearning-system när det gäller kunskapsöverföring och utvärdering.
16,556,027
Knowledge Level Assessment in e-Learning Systems Using Machine Learning and User Activity Analysis
{'venue': None, 'journal': 'International Journal of Advanced Computer Science and Applications', 'mag_field_of_study': ['Computer Science']}
219
Att begränsa omkostnaderna för frekventa händelser på kontrollplanet är viktigt för att förverkliga ett skalbart programvarudefinierat nätverk. Ett sätt att begränsa detta overhead är att bearbeta frekventa händelser i dataplanet. Detta kräver att strömbrytare ändras och sker på bekostnad av sikten i styrplanet. På en alternativ väg föreslår vi Kandoo, en ram för att bevara skalbarheten utan att byta strömbrytare. Kandoo har två lager av styrenheter: (i) det nedre lagret är en grupp av styrenheter utan sammankoppling, och ingen kunskap om det nätverksomfattande tillståndet, och (ii) det översta lagret är en logiskt centraliserad styrenhet som upprätthåller det nätverksomfattande tillståndet. Styrenheter i det nedre skiktet kör endast lokala styrapplikationer (dvs. program som kan fungera med hjälp av tillstånd av en enda switch) nära datasökvägar. Dessa styrenheter hanterar de flesta av de frekventa händelserna och skyddar effektivt det översta lagret. Kandoos design gör det möjligt för nätverksoperatörer att kopiera lokala styrenheter på begäran och minska belastningen på det översta lagret, vilket är den enda potentiella flaskhalsen när det gäller skalbarhet. Våra utvärderingar visar att ett nätverk som kontrolleras av Kandoo har en storleksordning lägre kontrollkanalförbrukning jämfört med vanliga OpenFlow-nätverk.
Tvärtom föreslår Kandoo REF en hierarkisk fördelning av styrenheterna baserad på två lager av styrenheter: (i) det nedre skiktet, en grupp av styrenheter utan sammankoppling, och ingen kunskap om det nätverksomfattande tillståndet, och (ii) det översta skiktet, en logiskt centraliserad styrenhet som upprätthåller det nätverksomfattande tillståndet.
193,153
Kandoo: a framework for efficient and scalable offloading of control applications
{'venue': "HotSDN '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
220
Abstract-Migrating beräkningsintensiva uppgifter från mobila enheter till mer påhittiga molnservrar är en lovande teknik för att öka beräkningskapaciteten för mobila enheter samtidigt som de sparar sin batterienergi. I det här dokumentet överväger vi ett MIMO multicell system där flera mobila användare (MUs) ber om beräkning av avlastning till en vanlig molnserver. Vi formulerar offloading problemet som den gemensamma optimeringen av radioresurser-överföringen precoding matriser av MUs-och beräkningsresurser-processor cykler / sekund tilldelas av molnet till varje MU-för att minimera den totala användarnas energiförbrukning, samtidigt som latency begränsningar. Det resulterande optimeringsproblemet är nonconvex (i den objektiva funktionen och begränsningar). I fallet med en enda användare kan vi ändå uttrycka den globala optimala lösningen i sluten form. I det mer utmanande fleranvändarscenariot föreslår vi en iterativ algoritm, baserad på en ny successiv konvex approximationsteknik, som konvergerar till en lokal optimal lösning av det ursprungliga icke-konvexa problemet. Sedan omformulerar vi algoritmen i en distribuerad och parallell implementation över radioåtkomstpunkterna, vilket kräver endast en begränsad samordning/signalering med molnet. Numeriska resultat visar att de föreslagna systemen överträffar olika optimeringsalgoritmer.
För undersökningar med decentralisering tillvägagångssätt, Sardellitti et al. formulerade offloading problemet som en gemensam optimering av radioresurser och beräkningsresurser, och tillhandahöll en distribuerad resurs schemaläggning algoritm med hjälp av successiv konvex approximation teknik för att minimera den totala användarens energiförbrukning, samtidigt som latency begränsningar REF.
13,245,153
Joint Optimization of Radio and Computational Resources for Multicell Mobile-Edge Computing
{'venue': '2014 IEEE 15th International Workshop on Signal Processing Advances in Wireless Communications (SPAWC)', 'journal': '2014 IEEE 15th International Workshop on Signal Processing Advances in Wireless Communications (SPAWC)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
221
Abstrakt. I dokumentet presenteras förslag till säkerhetsarkitektur för öppen samarbetsmiljö (OCE) som utvecklas inom ramen för projektet Collaboratory.nl (CNL) i syfte att bygga en flexibel, kunddriven säkerhetsinfrastruktur för öppna samarbetsapplikationer. Arkitekturen bygger på utökad användning av framväxande Web Services och Grid säkerhetsteknik i kombination med koncept från de generiska Authentication Authorization and Accounting (AAA) och Role-based Access Control (RBAC) ramar. I dokumentet beskrivs en annan föreslagen lösning den Job-centrerade säkerhetsmodellen som använder en jobbbeskrivning som ett semantiskt dokument som skapats på grundval av den undertecknade ordern (eller affärsavtalet) för att tillhandahålla ett jobbspecifikt sammanhang för åberopande av grundläggande OCE-säkerhetstjänster. Typiskt OCE användningsfall av policybaserad åtkomstkontroll diskuteras i detalj.
REF föreslår en flexibel kunddriven säkerhetsinfrastruktur för Open Collaborative Environment (OCE) för att bygga en flexibel, kunddriven säkerhetsinfrastruktur för öppna samarbetsapplikationer.
15,654,879
Security Architecture for Open Collaborative Environment
{'venue': 'EGC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
222
Befintliga grafbaserade rankningsmetoder för nyckelfrasextrahering beräknar en enda viktig poäng för varje ord via en enda slumpmässig gång. Motiverade av det faktum att både dokument och ord kan representeras av en blandning av semantiska ämnen, föreslår vi att bryta traditionella slumpmässiga promenader i flera slumpmässiga promenader specifika för olika ämnen. På så sätt bygger vi en Topical PageRank (TPR) på ordgrafik för att mäta ordets betydelse med avseende på olika ämnen. Efter det, med tanke på ämnet distribution av dokumentet, vi ytterligare beräkna ranking poäng av ord och extrahera de högst rankade som nyckelfraser. Experimentella resultat visar att TPR överträffar state-of-the-art nyckelfras extraktionsmetoder på två datauppsättningar under olika utvärderingsmått.
I REF, Liu et al. dekomponerade den traditionella PageRank i flera slumpmässiga promenader specifika för olika ämnen för nyckelfras extraktion.
9,506,420
Automatic Keyphrase Extraction via Topic Decomposition
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
223
En kritisk aspekt av applikationer med trådlösa sensornätverk är nätverkets livslängd. Batteridrivna sensorer är användbara så länge de kan kommunicera infångade data till en processnod. Sensing och kommunikation förbrukar energi, vilket gör att omdömesgill energihantering och schemaläggning effektivt kan förlänga drifttiden. För att övervaka en uppsättning mål med kända platser när tillträde till marken i det övervakade området är förbjudet, är en lösning att distribuera sensorerna på distans, från ett luftfartyg. Förlusten av exakt sensorplacering skulle då kompenseras av en stor sensorpopulationstäthet i fallzonen, vilket skulle förbättra sannolikheten för måltäckning. De data som samlas in från sensorerna skickas till en central nod för behandling. I detta dokument föreslår vi en effektiv metod för att förlänga sensornätverkets driftstid genom att organisera sensorerna i ett maximalt antal separata uppsättningar omslag som aktiveras successivt. Endast sensorerna från den aktuella aktiva uppsättningen ansvarar för övervakning av alla mål och överföring av insamlade data, medan noder från alla andra uppsättningar är i viloläge med låg energi. I det här dokumentet tar vi upp problemet med maximal osammanhängande uppsättning och vi utformar en heurist som beräknar uppsättningarna. Teoretisk analys och resultat av prestationsutvärdering presenteras för att verifiera vårt tillvägagångssätt.
Det allmänna problemet med måltäckning införs i REF, där problemet är modellerat som att hitta maximalt antal separata uppsättningar täcker, så att varje täckning helt övervaka alla mål.
8,022,422
Improving wireless sensor network lifetime through power aware organization
{'venue': 'ACM Wireless Networks', 'journal': None, 'mag_field_of_study': ['Computer Science']}
224
Detta dokument beskriver version 0.40 av librosa: ett Python-paket för ljud- och musiksignalbehandling. På en hög nivå ger librosa implementationer av en mängd gemensamma funktioner som används inom hela området för hämtning av musikinformation. I detta dokument ges en kort översikt över bibliotekets funktionalitet, tillsammans med förklaringar av designmålen, programutvecklingsmetoder och notationskonventioner.
Till exempel är librosa REF ett Python-paket som ofta används för ljud- och signalbehandling.
33,504
librosa: Audio and Music Signal Analysis in Python
{'venue': 'Proceedings of the 14th Python in Science Conference', 'journal': 'Proceedings of the 14th Python in Science Conference', 'mag_field_of_study': ['Computer Science']}
225
I detta arbete introducerar vi en konvolutionell neural nätverksmodell, ConvE, för uppgiften att länk förutsägelse. ConvE tillämpar 2D-konvolution direkt på inbäddningar, vilket inducerar rumslig struktur i inbäddningsutrymme. För att skala till stora kunskapsgrafer och förhindra överbemanning på grund av överparametrisering, strävar tidigare arbete efter att minska parametrar genom att utföra enkla omvandlingar i inbäddning utrymme. Vi hämtar inspiration från datorseende, där konvolution kan lära sig flera lager av icke-linjära funktioner och samtidigt minska antalet parametrar genom viktdelning. Tillämpas naivt, convolutional modeller för länk förutsägelse är beräknings dyrt. Genom att förutsäga alla länkar samtidigt förbättrar vi dock testtidens prestanda med mer än 300x på FB15k. Vi rapporterar de senaste resultaten för många tidigare införda referensvärden för länkprognoser, inklusive de väletablerade FB15k- och WN18-datauppsättningarna. Tidigare arbete noterade att dessa två datauppsättningar innehåller många reversibla tripletter, men svårighetsgraden av denna fråga kvantifierades inte. För att undersöka detta utformar vi en enkel modell som använder en enda regel som upphäver relationer och uppnår toppmoderna resultat. Vi introducerar WN18RR, en delmängd av WN18 som konstruerades på samma sätt som den tidigare föreslagna FB15k-237, för att lindra detta problem och rapportera resultat för våra egna och tidigare föreslagna modeller för alla datauppsättningar. Analys av vår convolutional modell tyder på att det är särskilt bra på modellering noder med hög ingrad och noder med hög PageRank och att 2D-konvolution tillämpas på inbäddningar verkar inducera kontrasterande pixel-nivå strukturer.
REF introducerade ConvE som använder 2D-konvolution över inbäddningar och flera lager av ickelinjära funktioner för att modellera kunskapsgrafer.
4,328,400
Convolutional 2D Knowledge Graph Embeddings
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
226
Sammanfattning I det här dokumentet presenterar vi ett adaptivt ramverk för videoöverföring som integrerar frekvensfördelning och buffertstyrning vid källan med uppspelningsjusteringsmekanismen vid mottagaren. En överföringshastighet bestäms av en hastighetstilldelningsalgoritm som använder programklockans referens (PCR) inbäddad i videoströmmarna för att reglera överföringshastigheten på ett förfinat sätt. Serversidan underhåller också flera buffertar för paket av olika betydelsenivåer för att byta bort slumpmässig förlust för kontrollerad förlust enligt källbuffertstorleken, den visuella påverkan, och uppspelning deadline. En gränsöverskridande uppspelning justeringsmekanism baserad på proportional-integra (PI) styrenhet används vid mottagaren för att maximera den visuella kvaliteten på den visade videon enligt den totala förlusten och mottagaren buffert beläggning. Prestandan i vårt föreslagna ramverk utvärderas i termer av toppsignal-brusförhållande (PSNR) i simuleringarna, och simuleringsresultaten visar förbättringen av de genomsnittliga PPNR-värdena samt den bättre kvaliteten på de avkodade ramarna. Nyckelord Variabel-bit-rate (VBR), video streaming, programklocka referens (PCR), bufferthantering, proportional-integra controller För att få bättre visuell kvalitet, video krävs för att använda variabel-bit-rate (VBR) kodning. Det är dock svårare att hantera VBR-videotrafiken på grund av dess betydande bithastighetsbristning [1]. Normalt kräver överföring av video hög bandbredd och låg fördröjning. Många undersökningar har gjorts på VBR komprimerad videoöverföring [2−9]. Under [2] behandlades problemet med streaming paketerade medier på ett optimerat sätt. En interaktiv nedstigningsalgoritm användes för att minimera den genomsnittliga end-to-end distortionen. Den höga computational komplexiteten i detta tillvägagångssätt gjorde det dock mindre tilltalande under realtidsstreaming, där servern måste anpassa sig till bandbreddsvariationer mycket snabbt. Adaptive media playout (AMP) föreslogs ur mottagarens synvinkel [3] för att variera playouthastigheten för medieramar enligt bufferttätheten så snart som målbuffertnivån har uppnåtts, vilket kan orsaka jitter vid den kritiska punkten på två intilliggande buffertnivåer. Ett flerbufferschema föreslogs [4] för att schemalägga överföringen på grundval av källbuffertprioriteringen. En proportional-integralderivative (PID) controller antogs i [5] för att ha bättre avvägning mellan rumsliga och temporal kvaliteter. Ovanstående två system tillhör server-side-teknik, som endast beaktar avsändarens bufferttillstånd utan att ta hänsyn till den end-to-end fördröjningen av multimediatillämpningar. [6] Löste problemet med att optimera den fördröjning av uppspelningen som en population av heterogena kunder upplever och föreslog en serverbaserad schemaläggningsstrategi som riktar sig till en rättvis fördelning av uppspelningsförseningar. [7] Modellerade streamingsystemet som ett kösystem. En optimal subström valdes baserat på sannolikheten för avkodning av fel i ramen och den effektiva nätverksbandbredden. [8] föreslog ett system för val av omvänd ram (RFS) baserat på dynamisk programmering för att lösa problemet med videoströmning över VBR-kanaler. [9] presenterade ett strömmande ramverk centrerat kring begreppet priority drop. Den kombinerade skalbar komprimering och adaptiv streaming för att ge en graciös försämring av kvaliteten. De flesta av de tidigare strategierna inriktades på att reglera överföringshastigheten genom observation av nätsta terna.
I REF, en hastighetsalgoritm, som utförs på Grupp of Picture (GoP) nivå, utförs på avsändaren för att maximera den visuella kvaliteten enligt den totala förlusten och mottagaren buffert beläggning.
14,290,765
Joint Rate Allocation and Buffer Management for Robust Transmission of VBR Video
{'venue': 'ICMCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
227
Sammanfattning av denna webbsida: Wireless Sensor Networks (WSNs) har på senare tid blivit en av de mest lovande nätverkslösningarna med en mängd olika tillämpningar inom jordbruk, miljö, hälso- och sjukvård och militär. Trots dessa lovande tillämpningar är sensornoder i WSN sårbara för olika säkerhetsattacker på grund av deras spridning i fientliga och obevakade områden och deras resursbegränsningar. En av dessa attacker är DoS stör attacken som stör och stör de normala funktionerna hos sensornoder i en WSN genom att sända radiofrekvenssignaler för att störa legitima signaler för att orsaka en överbelastning. I detta arbete föreslår vi en stegvis strategi med hjälp av en statistisk processkontrollteknik för att upptäcka dessa attacker. Vi använder ett exponentiellt vägt glidande medelvärde (EWMA) för att upptäcka onormala förändringar i intensiteten i en störningsattackshändelse genom att använda paketets interarrivalfunktion i de mottagna paketen från sensornoder. Resultaten från en spårdriven simulering visar att den föreslagna lösningen på ett effektivt och korrekt sätt kan upptäcka störningsattacker i WSN med liten eller ingen overhead.
Resultaten från en spårdriven simulering visar att den föreslagna lösningen effektivt och korrekt kan upptäcka störningsattacker i WSN med lite eller ingen overhead REF.
44,172,531
A Statistical Approach to Detect Jamming Attacks in Wireless Sensor Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Computer Science', 'Medicine']}
228
I detta dokument presenteras design, implementation och testning av en digital mikrofon array. Arrayen använder digitala MEMS mikrofoner som integrerar mikrofon, förstärkare och analog till digital omvandlare på ett enda chip i stället för de analoga mikrofoner och externa ljudgränssnitt som för närvarande används. Enheten har potential att vara mindre, billigare och mer flexibel än typiska analoga matriser, men effekten på taligenkänning prestanda av att använda digitala mikrofoner är ännu okänd. För att utvärdera effekten används en analog array och den nya digitala arrayen för att samtidigt registrera testdata för ett taligenkänningsförsök. Initiala resultat med ingen anpassning visar att prestanda med hjälp av den digitala arrayen är betydligt sämre (14% absolut WER) än den analoga enheten. Senare experiment med användning av MLLR och KMLLR kanalanpassning minskar detta gap, och använder MLLR för både kanal och högtalare anpassning minskar skillnaden mellan matriserna till 4,5% absolut WER.
Författarna i REF beskriver designen på en FPGA av en åtta-element digital MEMS mikrofon array för avlägsen taligenkänning.
9,663,870
A digital microphone array for distant speech recognition
{'venue': '2010 IEEE International Conference on Acoustics, Speech and Signal Processing', 'journal': '2010 IEEE International Conference on Acoustics, Speech and Signal Processing', 'mag_field_of_study': ['Computer Science']}
229
Abstract-This paper presents an FPGA emulation-based Fast Network on Chip (NoC) prototyping framework, kallad Dynamic Reconfigurerable NoC (DRNoC) Emulation Platform. Den huvudsakliga, särskiljande, karakteristiska för detta tillvägagångssätt är att design prospektering inte kräver återsyntes, påskyndar processen. För detta ändamål har kapacitet för partiell omkonfigurering av vissa toppmoderna FPGA utvecklats och tillämpats. I dokumentet beskrivs alla byggelement i den föreslagna lösningen: den använda partiella omkonfigureringsmetoden, själva ramverket för rymdprospektering och mätsystemet för data. Resultat och användningsfall visas.
En FPGA emuleringsbaserad NoC-prototyping ram presenteras, där det huvudsakliga målet är att påskynda syntesprocessen genom partiell omkonfigurering av hårda kärnor REF.
18,253,432
A Fast Emulation-Based NoC Prototyping Framework
{'venue': '2008 International Conference on Reconfigurable Computing and FPGAs', 'journal': '2008 International Conference on Reconfigurable Computing and FPGAs', 'mag_field_of_study': ['Computer Science']}
230
Vi undersöker prestandaprofilen för Convolutional Neural Network (CNN) utbildning om den nuvarande generationen av NVIDIA Graphics Processing Units (GPU). Vi introducerar två nya Fast Fourier Transform convolution implementationer: en baserad på NVIDIA: s cuFFT-bibliotek, och en annan baserad på en Facebook-författare FFT genomförande, fbfft, som ger betydande speedups över cuFFT (över 1,5×) för hela CNNs. Båda dessa convolution implementationer är tillgängliga i öppen källkod, och är snabbare än NVIDIA: s cuDNN genomförande för många vanliga convolutional lager (upp till 23,5× för en syntetisk kärna konfiguration). Vi diskuterar olika prestandasystem för konvolutioner och jämför områden där enkla tidsdomänkonvolutioner överträffar Fourier frekvensdomänkonvolutioner. Detaljer om algoritmiska tillämpningar av NVIDIA GPU hårdvaruspecifika uppgifter vid genomförandet av fbfft tillhandahålls också.
Dessutom, Vasilache et al. I REF införs två nya FFT-baserade genomföranden för mer betydande upptrappningar.
15,193,948
Fast Convolutional Nets With fbfft: A GPU Performance Evaluation
{'venue': 'ICLR 2015', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
231
I omordning bufferthanteringsproblem (RBM) en sekvens av n färgade objekt går in i en buffert med begränsad kapacitet k. När bufferten är full, tas ett objekt bort till utdatasekvensen, vilket ger utrymme för nästa inmatningsobjekt. Detta steg upprepas tills inmatningssekvensen är uttömd och bufferten är tom. Målet är att hitta en sekvens av borttagningar som minimerar det totala antalet färgförändringar i utdatasekvensen. Problemet formaliserar många tillämpningar i dator- och produktionssystem, och är känd för att vara NP-hård. Vi ger den första konstanta faktor approximation garanti för ringpärmsmekanismer. Vår algoritm är baserad på en invecklad "avrundning" av lösningen till en LP avslappning för RBM, så det etablerar också en konstant övre gräns på integrality gapet av denna avslappning. Våra resultat förbättras på den bästa tidigare gränsen av O( ε log k) av Adamaszek et al. (STOC 2011) som använde olika metoder och gav en online-algoritm. Vår konstanta faktor approximation slår de super-konstant lägre gränserna på konkurrensförhållandet ges av Adamaszek et al. Detta är den första demonstrationen av en offline-algoritm för RBM som är bevisligen bättre än någon online-algoritm.
Den offline algoritm av Avigdor-Elgrabli och Rabani REF bygger på en invecklad avrundning av en lösning av en LP-avslappning av problemet.
5,855,942
A Constant Factor Approximation Algorithm for Reordering Buffer Management
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
232
I verkliga tillämpningar av visuell igenkänning, många faktorer-såsom pose, belysning, eller bildkvalitet-kan orsaka en betydande missmatchning mellan källdomänen på vilken klassificerare utbildas och den måldomän på vilken dessa klassificerare tillämpas. Som sådan, klassificerare ofta presterar dåligt på måldomänen. Domänanpassningstekniker syftar till att korrigera missmatchningen. Befintliga metoder har koncentrerats på inlärningsfunktioner representationer som är invarianta över olika områden, och de utnyttjar ofta inte direkt lågdimensionella strukturer som är inneboende i många vision dataset. I detta dokument föreslår vi en ny kärnbaserad metod som utnyttjar sådana strukturer. Vår geodesiska flödeskärna modeller domän skifta genom att integrera ett oändligt antal subrymder som karakteriserar förändringar i geometriska och statistiska egenskaper från källan till måldomänen. Vår metod är beräkningsmässigt fördelaktig, automatiskt sluta viktiga algoritmiska parametrar utan att kräva omfattande korsvalidering eller märkta data från någon av domänerna. Vi inför också ett mått som på ett tillförlitligt sätt mäter anpassningsförmågan mellan ett par käll- och målområden. För en given måldomän och flera källdomäner kan mätvärdet användas för att automatiskt välja den optimala källdomänen för att anpassa och undvika mindre önskvärda. Empiriska studier av standarddata visar fördelarna med vårt tillvägagångssätt jämfört med konkurrerande metoder.
GFK (Geodesic Flow Kernel), föreslagen av Gong et al. REF, är en kärnbaserad metod som beaktar ett oändligt antal subrymder och modeller marginella och fördelningsförskjutningar mellan domäner.
6,742,009
Geodesic flow kernel for unsupervised domain adaptation
{'venue': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
233
Abstract Random Forests är för närvarande en av de mest använda maskininlärningsalgoritmer i non-streaming (batch) inställning. Denna preferens beror på dess höga inlärningsprestanda och låga krav när det gäller input förberedelse och hyper-parameter inställning. I det utmanande sammanhanget med föränderliga dataströmmar finns det dock ingen slumpmässig skogsalgoritm som kan anses vara toppmodern i jämförelse med baging och boosting baserade algoritmer. I detta arbete presenterar vi adaptiv slumpmässig skogsalgoritm (ARF) för klassificering av föränderliga dataströmmar. I motsats till tidigare försök att replikera slumpmässiga skogar för dataflödesinlärning, innehåller ARF en effektiv omsamplingsmetod och adaptiva operatörer som kan hantera olika typer av konceptdrifter utan komplexa optimeringar för olika datamängder. Vi presenterar experiment med ett parallellt genomförande av ARF som inte har någon försämring i fråga om klassificeringsprestanda jämfört med ett seriellt genomförande, eftersom träd och adaptiva operatörer är oberoende av varandra. Slutligen jämför vi ARF med toppmoderna algoritmer i en traditionell test-då-tåg utvärdering och en ny försenad märkning utvärdering, och visar att ARF är korrekt och använder en genomförbar mängd resurser.
Den adaptiva Random Forest (ARF) algoritmen föreslår bättre omsampling metoder för att uppdatera klassificeringar över drivande dataströmmar REF.
21,671,230
Adaptive random forests for evolving data stream classification
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']}
234
I detta dokument introducerar vi en storskalig hand pose dataset, som samlas in med hjälp av en ny fångstmetod. Befintliga datauppsättningar genereras antingen syntetiskt eller fångas med hjälp av djupsensorer: syntetiska datauppsättningar uppvisar en viss nivå av utseende skillnad från verkliga djupbilder, och verkliga datauppsättningar är begränsade i kvantitet och täckning, främst på grund av svårigheten att kommentera dem. Vi föreslår ett spårningssystem med sex 6D magnetiska sensorer och invers kinematics för att automatiskt få 21-leds hand utgör anteckningar av djupkartor fångas med minimal begränsning av rörelseomfånget. Fångstprotokollet syftar till att helt täcka den naturliga handen pose utrymme. Som framgår av inbäddade tomter uppvisar den nya datauppsättningen ett betydligt bredare och tätare handräcke jämfört med befintliga riktmärken. Aktuella state-of-the-art metoder utvärderas på datauppsättningen, och vi visar betydande förbättringar i kors-benchmark prestanda. Vi visar också betydande förbättringar i egocentrisk hand pose estimation med en CNN tränad på den nya datauppsättningen.
BigHand2.2M benchmark dataset REF är en stor dataset som använder 6D magnetiska sensorer och invers kinematics för att automatiskt få 21 leder hand utgör anteckningar på djupkartor.
4,662,035
BigHand2.2M Benchmark: Hand Pose Dataset and State of the Art Analysis
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
235
För att hålla jämna steg med kravet på att kurera översvämningen av crowd-sourced innehåll, sociala medier plattformar utnyttja användarinteraktion feedback för att fatta beslut om vilket innehåll att visa, belysa och dölja. Användarinteraktioner såsom likes, röster, klick och vyer antas vara ett uttryck för ett innehålls kvalitet, popularitet eller nyhetsvärdighet. I den här artikeln frågar vi: hur förutsägbart är interaktionen mellan en användare på sociala medier? För att svara på denna fråga spelade vi in klicka, bläddra och rösta beteende 186 Reddit användare över ett år. Vi presenterar intressant beskrivande statistik om deras kombinerade 339.270 interaktioner, och vi finner att relativt enkla modeller kan förutsäga användares individuella bläddrings- eller röstinteraktioner med rimlig noggrannhet.
Medan användare interaktioner (gillar, röster, klick och vyer) fungerar som en proxy för innehållets kvalitet, popularitet, eller nyhetsvärdighet, förutsäga användarens beteende befanns vara ganska lätt REF.
649,910
Predicting User-Interactions on Reddit
{'venue': "ASONAM '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
236
I modellen för det atomära ögonblicksbildssystemet kommunicerar processerna i ett asynkront distribuerat system genom atomisk skrivande och atomisk ögonblicksbildsläsning på ett delat minne bestående av enskrivarregister med flera läsare. Processerna kan misslyckas genom att krascha. Det visas att i denna modell, en vänta-fri, full-information protokoll komplex är homotopy motsvarar den underliggande indata komplexet. En spännvidd i betydelsen Herlihy och Shavit ger homotopy likvärdighet. Härav följer att protokollkomplexet och inmatningskomplexet är oskiljaktiga av vanliga homologi- eller homotopiska grupper.
Ett AS-protokoll komplex är i allmänhet inte homeomorphic till den underliggande inmatningskomplex, men det är homotopy motsvarande det REF.
17,249,059
A Note on the Homotopy Type of Wait-free Atomic Snapshot Protocol Complexes
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
237
Sammanfattning av denna webbsida: I den här artikeln diskuteras ett inköps- och försäljningstidsförutsägelsesystem för aktier på Tokyobörsen och analys av intemal representation. Den är baserad på modulära neurala nätverk [l][2]. Vi utvecklade ett antal inlärningsalgoritmer och förutsägelsemetoder för TOPIX (Toky0 Stock Exchange Prices Indexes) förutsägelsesystem. Prognossystemet uppnådde exakta förutsägelser och simuleringen på aktier tradmg visade en utmärkt vinst. Prognossystemet utvecklades av Fujitsu och Nikko Securities.
I en av de tidigaste studierna använde REF flera inlärningsalgoritmer och förutsägelser metoder för Tokyo aktiekursindex (TOPIX) förutsägelsesystem.
7,078,470
Stock market prediction system with modular neural networks
{'venue': '1990 IJCNN International Joint Conference on Neural Networks', 'journal': '1990 IJCNN International Joint Conference on Neural Networks', 'mag_field_of_study': ['Computer Science']}
238
Sociala nätverkswebbplatser gör det möjligt för användare att skapa och dela innehåll. Stora informationskasoder efter omdelning kan bilda som användare av dessa webbplatser åter dela andras inlägg med sina vänner och anhängare. En av de centrala utmaningarna när det gäller att förstå sådana kaskadbeteenden är att förutse informationsutbrott, där ett enda inlägg blir allmänt populärt genom att delas på nytt av många användare. I detta dokument fokuserar vi på att förutsäga det slutliga antalet omplaceringar av en viss tjänst. Vi bygger på teorin om självexciterande punktprocesser för att utveckla en statistisk modell som gör det möjligt för oss att göra korrekta förutsägelser. Vår modell kräver ingen utbildning eller dyr funktionsteknik. Det resulterar i en enkel och effektivt beräkningsbar formel som gör att vi kan svara på frågor, i realtid, som: Med tanke på ett inläggs omdelning historia hittills, vad är vår nuvarande uppskattning av dess slutliga antal reshares? Är efterdelningen kaskaden förbi det inledande stadiet av explosiv tillväxt? Och vilka tjänster kommer att vara de mest omdelade i framtiden? Vi validerar vår modell med hjälp av en månads komplett Twitter-data och visar en stark förbättring av prediktiv noggrannhet jämfört med befintliga metoder. Vår modell ger bara 15% relativ fel i att förutsäga den slutliga storleken på en genomsnittlig informationskaskad efter att ha observerat den i bara en timme.
Vår strategi för att identifiera perioden med maximal tillväxt och start av hämningsregionen i en kaskadlivslängd baserad på Hawkes process utförs längs den arbetslinje som introducerades i REF där författarna använder Hawkes punktprocessmodell för att förutsäga det slutliga antalet omplaceringar av en post.
6,181,286
SEISMIC: A Self-Exciting Point Process Model for Predicting Tweet Popularity
{'venue': "KDD '15", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']}
239
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
I den snabbare R-CNN rörledningen REF, den avgränsande box förslag genererades av ett regionförslag Network (RPN), och den övergripande ramen kan därför utbildas på ett end-to-end sätt.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
240
Abstract-Vi presenterar en klass av massivt parallella processorarkitekturer som kallas invasiva tätt kopplade processorsystem (TCPA). Den presenterade processorn klass är en mycket parameterizable mall, som kan skräddarsys innan körtid för att uppfylla kunders krav såsom prestanda, yta kostnad, och energieffektivitet. Dessa programmerbara acceleratorer är väl lämpade för domänspecifika beräkningar från områdena signal-, bild- och videobehandling samt andra streaming-tillämpningar. För att lösa framtida skalningsproblem (t.ex. strömförbrukning, tillförlitlighet, resurshantering samt parallellisering och kartläggning av tillämpningar) är TCPA i sig utformade på ett sätt som stöder självanpassning och resursmedvetenhet på hårdvarunivå. Här följer vi en nyligen införd resursaware parallell computing paradigm som kallas invasive computing där en applikation dynamiskt kan hävda, exekvera och släppa resurser. Dessutom visar vi hur invasiva datorer kan användas som en möjliggörare för strömförsörjning. Slutligen kommer vi att presentera idéer om hur man kan förverkliga feltoleranta looputförande på så massivt parallella arkitekturer genom att anställa rumsliga uppsägningar på begäran på processorns arraynivå.
I REF presenterar författarna massivt parallella programmerbara acceleratorer.
10,590,448
Massively Parallel Processor Architectures for Resource-aware Computing
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
241
Vi studerar problemet med halvövervakade frågesvar – att använda omärkt text för att öka prestandan av frågesvarsmodeller. Vi föreslår en ny utbildningsram, Generative Domain-Adaptive Nets. Inom denna ram utbildar vi en generativ modell för att generera frågor baserade på den omärkta texten, och kombinera modellgenererade frågor med mänskliga frågor för utbildning frågesvar modeller. Vi utvecklar nya domänanpassningsalgoritmer, baserade på förstärkningslärande, för att minska diskrepansen mellan den modellgenererade datadistributionen och den humangenererade datadistributionen. Experiment visar att vårt föreslagna ramverk får betydande förbättringar av omärkt text.
REF ) anta en följande modell för att generera frågor baserade på stycken och svar i sina generativa kontradiktoriska ramar.
15,164,488
Semi-Supervised QA with Generative Domain-Adaptive Nets
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
242
Abstrakt. Detta dokument presenterar en lätt metod för oövervakad utdrag av parafraser från godtyckliga textwebbdokument. Metoden skiljer sig från tidigare metoder för att parafras förvärv i att 1) det tar bort antaganden om kvaliteten på inmatningsdata, genom att använda inneboende bullriga, opålitliga webbdokument snarare än rena, tillförlitliga, korrekt formaterade dokument; och 2) det inte kräver någon explicit ledtråd som anger vilka dokument sannolikt att koda parallella parafraser, eftersom de rapporterar om samma händelser eller beskriva samma berättelser. Stora uppsättningar parafraser samlas in genom uttömmande parvis justering av små nålar, dvs. meningsfragment, över en höstack av webbdokument meningar. Tidningen beskriver experiment på en uppsättning av cirka en miljard webbdokument, och utvärderar de extraherade parafraser i en naturligt språk webbsökning ansökan.
REF extraherade meningsfragment som förekommer i identiska sammanhang som parafraser från en miljard webbdokument.
8,620,961
Aligning Needles in a Haystack: Paraphrase Acquisition Across the Web
{'venue': 'Second International Joint Conference on Natural Language Processing: Full Papers', 'journal': None, 'mag_field_of_study': ['Computer Science']}
243
Sammanfattning Detta papper introducerar kostnadskurvor, en grafisk teknik för att visualisera prestanda (felfrekvens eller förväntad kostnad) för 2-klassificerare i hela sortimentet av möjliga klassdistributioner och felklassificeringskostnader. Kostnadskurvor visas vara överlägsna ROC-kurvor för att visualisera klassificeringsprestanda för de flesta ändamål. Detta beror på att de visuellt stöder flera avgörande typer av prestandabedömning som inte kan göras enkelt med ROC-kurvor, såsom att visa konfidensintervall på en klassificerings prestanda, och visualisera den statistiska signifikansen av skillnaden i prestanda för två klassificeringar. Ett programvaruverktyg som stöder all kostnadskurvaanalys som beskrivs i detta dokument är tillgängligt från författarna.
Drummond och Holte REF föreslog en visualiseringsteknik kallad "Cost Curve", som kan ta hänsyn till kostnadsvillkor för att visa konfidensintervall för klassificeringens prestanda.
9,919,123
Cost curves: An improved method for visualizing classifier performance
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']}
244
Den framväxande tekniken för automatisk tillverkning av datorer ("3-D-printing") gör det nu möjligt att producera fysiska modeller för komplexa biologiska molekyler och sammansättningar. Vi rapporterar om en ansökan som visar användningen av auto-fabricerade konkreta modeller och förstärkt verklighet för forskning och utbildning inom molekylärbiologi, samt för att förbättra den vetenskapliga miljön för samarbete och prospektering. Vi har anpassat ett förstärkt verklighetssystem så att virtuella 3D-representationer (genererade av Python Molecular Viewer) kan läggas över på en konkret molekylär modell. Användarna kan enkelt ändra den överlagrade informationen, växla mellan olika representationer av molekylen, displayer av molekylära egenskaper såsom elektrostatiska, eller dynamisk information. Den fysiska modellen ger ett kraftfullt, intuitivt gränssnitt för att manipulera datormodellerna, effektivisera gränssnittet mellan människans avsikter, den fysiska modellen och beräkningsaktiviteten. Med förekomsten av strukturella och genomiska data har molekylärbiologin blivit en mänsklig, datorstödd strävan. Datorn bistår den grundläggande mänskliga funktionen på två sätt: vid undersökning av vetenskapliga data, sökande efter och testning av vetenskapliga hypoteser, och i samarbete mellan två eller flera forskare, för att dela med sig av kunskap och expertis. Allteftersom databaserna växer, i takt med att våra struktur- och processmodeller blir mer komplexa, och i takt med att mjukvarumetoderna blir mer mångsidiga, blir tillgång till och manipulation av digital information allt viktigare för forskningen inom molekylärbiologi. För närvarande domineras undersökande forskning inom strukturell molekylärbiologi av 3D-representationer via datorgrafik. Samarbete, både på distans och lokalt, underlättas av delad visning av dessa interaktiva visuella representationer av molekylära data. Men de senaste framstegen inom området gränssnitt mellan människa och dator har inte tillämpats på den teknik som används av molekylärbiologer -- det mesta arbetet inom biomolekylär struktur och genomik utförs framför en arbetsstation med hjälp av en mus och tangentbord som inmatningsenheter. De taktila och kinetiska sinnena ger viktiga perceptuella signaler till vår förmåga att förstå 3D-form och att utföra fysiska manipulationer, men är för närvarande underutnyttjade inom molekylärbiologi. Tidig strukturforskning förlitade sig starkt på fysiska modeller: Pauling använde sina nyuppfinnade rymdfyllningsmodeller för att förutsäga de grundläggande hopfällbara enheterna av proteinstrukturer [1] och Watson och Crick använde mässingstrådsmolekylära modeller för att hjälpa dem att bestämma strukturen av DNA [2], som försonade årtionden av genetiska data. Dessa forskare "tänkte med sina händer" för att producera viktiga vetenskapliga resultat. Nuvarande forskning inom molekylärbiologi fokuserar nu på större sammansättningar och mer komplexa interaktioner, för vilka traditionella atommodeller är otillräckliga. Sammanfogning av fysiska och virtuella objekt till en "förutsedd verklighetsmiljö" (AR) [3] möjliggör nya former av interaktion genom manipulering av konkreta modeller och den komplexa information de representerar [4]. Den föränderliga tekniken för automatisk tillverkning av datorer ("3D-printing") gör det nu möjligt att producera fysiska modeller för komplexa molekylära sammansättningar. I den här artikeln rapporterar vi om en ansökan som visar användningen av auto-fabricerade konkreta modeller och AR för forskning inom molekylärbiologi för att förbättra den vetenskapliga miljön för samarbete och prospektering. De fysiska modellerna är integrerade i en förstärkt verklighetsmiljö för att effektivisera gränssnittet mellan människans intention, den fysiska modellen och beräkningsaktiviteten. Vi har utvecklat ett AR-system som gör det möjligt att lägga virtuella 3D-representationer som genereras av vår Python Molecular Viewer (PMV) [5] på en autofabricerad modell av molekylen. Den exakta registreringen av de virtuella objekten med den verkliga världen görs med hjälp av ARTOOLKit biblioteket som utvecklats vid University of Washington [6]. När du använder systemet kan användarna enkelt ändra den representation som visas, och till exempel få tillgång till information om molekylernas molekylära egenskaper. Vi kommer först att beskriva hur vi skapar 3D konkreta modeller av en molekylär struktur från en känd atomstruktur, sedan förklara integrationen av ARTOOLKit i vårt Python ramverk, och slutligen presentera några exempel. Vi använder PMV [5] både för att skapa våra virtuella objekt och för att designa våra konkreta modeller, vilket förenklar integrationen av modellerna i den virtuella miljön. PMV är en modulär programvaruram för att designa och specificera ett brett spektrum av molekylära modeller, inklusive molekylära ytor, strängpressade volymer, ryggradsband och atomkulor-och-stick representationer. Det gör det möjligt att utforma modeller på olika abstraktionsnivåer för olika behov: med hjälp av representationer som fokuserar på molekylär form när stora system och interaktioner presenteras, och med atomära detaljer när det behövs för att titta på funktionen på atomnivå. 10–10 oktober,
Inom molekylärbiologi, Gillet et al. REF-förstärkta fysiska molekylära modeller med ett virtuellt överlägg: Användaren kan ändra representationen av det digitala skiktet eller skapa nya kombinationer av molekyler.
3,361,291
Augmented Reality with Tangible Auto-Fabricated Models for Molecular Biology Applications
{'venue': 'IEEE Visualization 2004', 'journal': 'IEEE Visualization 2004', 'mag_field_of_study': ['Computer Science']}
245
Många viktiga problem kan modelleras som ett system av sammankopplade enheter, där varje enhet registrerar tidsberoende observationer eller mätningar. För att upptäcka trender, upptäcka anomalier och tolka temporal dynamik av sådana data, är det viktigt att förstå förhållandet mellan de olika enheterna och hur dessa relationer utvecklas över tiden. I detta dokument introducerar vi tidsförändrande grafiska lasso (TVGL), en metod för att härleda tidsförändrande nätverk från råtidsseriedata. Vi kastar problemet i termer av att uppskatta en gles tidsvarierande invers kovariansmatris, som avslöjar ett dynamiskt nätverk av ömsesidiga beroenden mellan enheterna. Eftersom dynamisk nätverksinferens är en beräknande dyr uppgift, härleder vi en skalbar messagepassing-algoritm baserad på Alternating Direction Method of Multipliers (ADMM) för att lösa detta problem på ett effektivt sätt. Vi diskuterar också flera tillägg, bland annat en streamingalgoritm för att uppdatera modellen och införliva nya observationer i realtid. Slutligen utvärderar vi vår TVGL-algoritm på både verkliga och syntetiska datauppsättningar, för att få tolkningsbara resultat och outperforming state-of-the-art basics i termer av både noggrannhet och skalbarhet.
Hallac m.fl. behandlar problemet med att lära sig en tidsvarierande graf med hjälp av tidsvarierande grafisk Lasso (TVGL) REF, som kombinerar grafisk Lasso med en tidsmässig regularisering och finner lösningen med hjälp av växelriktad metod för multiplikatorer (ADMM).
3,141,660
Network Inference via the Time-Varying Graphical Lasso
{'venue': "KDD '17", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Medicine']}
246
Trådlösa nätverk för kroppsyta (WBAN) förväntas påverka den traditionella medicinska modellen genom att hjälpa vårdare med hälsoteleövervakning. Inom WBAN bör nodernas sändningskapacitet vara så liten som möjligt på grund av deras begränsade energikapacitet, men den bör vara tillräckligt stor för att garantera signalens kvalitet vid de mottagande noderna. När flera WBANs samexisterar i ett litet område kan kommunikationens tillförlitlighet och övergripande genomströmning påverkas allvarligt på grund av resurskonkurrens och störningar. Vi visar att den totala nätgenomströmningen till stor del beror på WBAN:s distributionstäthet (λ p ), sändningskraften hos deras noder (P t ), och deras operatörssensoreringströskel (γ). Med hjälp av stokastisk geometri föreslås en gemensam operatörssensorisk tröskel- och effektstyrningsstrategi för att möta efterfrågan på samexisterande WBAN baserade på IEEE 802.15.4-standarden. Med tanke på de olika nätdistributionerna och trösklarna för operatörssensorer får den föreslagna strategin en minsta sändningseffekt beroende på den omgivande miljön. Vi får uttryck för överföringsframgångar sannolikhet och throughput anta denna strategi. Med hjälp av numeriska exempel visar vi att gemensamma operatörssensoreringströsklar och överföringsstrategi effektivt kan förbättra det övergripande systemets genomströmning och minska störningar. I detta dokument studeras dessutom effekterna av en skyddszon på genomströmningen med hjälp av en HCPP-typ II-modell (Matern hard-core point process). Teoretiska analyser och simuleringsresultat visar att HCPP-modellen kan öka sannolikheten för framgång och genomströmning av nätverk.
I REF, med hjälp av en HCPP typ II-modell, föreslog författarna en gemensam operatörssensorisk tröskel- och effektstyrningsstrategi för att möta efterfrågan på samexisterande WBAN som bygger på IEEE 802.15.4-standarden, vilket förbättrar det totala systemets genomströmning och minskar störningar i en frekvenskanal.
15,459,081
Throughput assurance of wireless body area networks coexistence based on stochastic geometry
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Medicine', 'Computer Science']}
248
ABSTRACT I detta dokument, vi överväga en underlay kognitiva radiosystem, där en källa i ett sekundärt system överför information till en full-duplex (FD) trådlös destination nod i närvaro av en tjuvlyssnare. I synnerhet är destinationsnoden utrustad med en enda mottagningsantenn och en enda sändningsantenn för att möjliggöra FD-drift. Den mottagande antennen kan samtidigt ta emot information och energi från källan genom strömspridararkitektur. Den mottagna energin används sedan i den sändande antennen för att sända störsignaler för att degradera tjuvlyssnarens avkodningskapacitet. Högre och lägre sannolikhetsgränser för strikt positiv sekretesskapacitet (SPSC) har härletts. Numeriska resultat visar att under förutsättning att störningen från källan och destinationen vid primäranvändarens mottagare är mindre än interferenstemperaturen, går övre och nedre gränser samman för att bli den exakta SPSC. INDEX TERMS Kognitiva radionät, full-duplex, samtidig trådlös information och kraftöverföring, sannolikheten för strikt positiv sekretess kapacitet.
Upphovsmän i REF ansåg att det var fråga om ett underliggande kognitivt radiosystem, där en källa i ett sekundärt system överförd information till en trådlös EH-destinationsnod med full duplex (FD) i närvaro av en tjuvlyssnare.
31,420,607
On physical-layer security in underlay cognitive radio networks with full-duplex wireless-powered secondary system
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
249
Även neural maskinöversättning har gjort betydande framsteg nyligen, hur man integrera flera överlappande, godtyckliga tidigare kunskapskällor förblir en utmaning. I detta arbete, föreslår vi att använda bakre regularisering för att ge en allmän ram för att integrera tidigare kunskap i neural maskinöversättning. Vi representerar tidigare kunskapskällor som funktioner i en log-lineär modell, som styr inlärningsprocessen för den neurala översättningsmodellen. Experiment på kinesisk engelsk översättning visar att vår strategi leder till betydande förbättringar. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Zhang m.fl. REF representerar tidigare kunskapskällor som egenskaper i en loglineär modell och föreslår att man använder efterhandsreglering för att tillhandahålla en allmän ram för att integrera förkunskaper i NMT.
2,445,030
Prior Knowledge Integration for Neural Machine Translation using Posterior Regularization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
250
Abstract-This paper presenterar en klass av routing protokoll som kallas road-based using vehicular traffic (RBVT) routing, som överträffar befintliga routing protokoll i stadsbaserade fordon ad hoc nätverk (VANETs). RBVT-protokoll utnyttjar trafikinformation i realtid för att skapa vägbaserade vägar som består av successioner av vägkorsningar som med stor sannolikhet har nätverksanslutningar mellan dem. Geografisk vidarebefordran används för att överföra paket mellan korsningar på banan, vilket minskar banans känslighet för enskilda nodrörelser. För täta nätverk med högt innehåll optimerar vi vidarebefordringen med hjälp av ett distribuerat mottagarbaserat val av nästa humle baserat på en multikriterionsprioriteringsfunktion som tar hänsyn till icke-uniform radioutbredning. Vi designade och implementerade ett reaktivt protokoll RBVT-R och ett proaktivt protokoll RBVT-P och jämförde dem med protokoll som är representativa för mobila ad hoc-nätverk och VANET. Simuleringsresultat i stadsmiljöer visar att RBVT-R presterar bäst i termer av genomsnittlig leveranshastighet, med upp till 40 % ökning jämfört med vissa befintliga protokoll. I termer av genomsnittlig fördröjning, RBVT-P presterar bäst, med så mycket som en 85% minskning jämfört med de andra protokollen. Index Terms-Receiver-baserade nästa-hop val, väg-baserad routing, fordonstrafik-medveten routing.
Road-based using Vehicular Traffic (RBVT) routing REF utnyttjar trafikinformation i realtid för att skapa vägbaserade vägar.
3,042,458
VANET Routing on City Roads Using Real-Time Vehicular Traffic Information
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
251
Abstrakt. Synfältet för standardkameror är mycket litet, vilket är en av huvudorsakerna till att kontextuell information inte är så användbar som den borde vara för objektdetektering. För att övervinna denna begränsning förespråkar vi användning av 360 • full-view panoraman i scen förståelse, och föreslå en helrum sammanhangsmodell i 3D. För en ingång panorama, vår metod utgångar 3D avgränsande lådor i rummet och alla större objekt inuti, tillsammans med deras semantiska kategorier. Vår metod genererar 3D-hypoteser baserade på kontextuella begränsningar och rankar hypoteserna holistiskt och kombinerar både nedifrån-och-upp-kontextinformation. För att träna vår modell konstruerar vi ett kommenterat panoramadataset och rekonstruerar 3D-modellen med hjälp av manuell annotering. Experiment visar att enbart baserat på 3D-kontext utan någon typ av bildregion, kan vi uppnå en jämförbar prestanda med den toppmoderna objektdetektorn. Detta visar att när FOV är stor, sammanhang är lika kraftfull som objekt utseende. Alla data och källkod finns tillgängliga online.
360 • panorama: Seminarieverket av Zhang et al. REF förespråkar användning av 360 • panoraman för inomhusscen förståelse, av den anledningen att FOV 360 • panoraman är mycket mer expansiva.
15,644,143
PanoContext: A Whole-Room 3D Context Model for Panoramic Scene Understanding
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
252
Trots de imponerande förbättringar som uppnås av oövervakade djupa neurala nätverk i datorseende och NLP uppgifter, har sådana förbättringar ännu inte observerats i rangordning för informationshämtning. Orsaken kan vara rankningsproblemets komplexitet, eftersom det inte är uppenbart hur man lär sig av frågor och dokument när ingen övervakad signal finns tillgänglig. Därför föreslår vi i detta dokument att man utbildar en neural rankningsmodell med hjälp av svag övervakning, där etiketter erhålls automatiskt utan annoterare eller externa resurser (t.ex. klickdata). I detta syfte använder vi resultatet av en oövervakad rankningsmodell, såsom BM25, som en svag övervakningssignal. Vi tränar vidare en uppsättning enkla men effektiva rankningsmodeller baserade på feed-forward neurala nätverk. Vi studerar deras eektivitet under olika inlärningsscenarier (punktvisa och parvisa modeller) och med hjälp av olika indata representationer (dvs. från kodning av frågedokument par till täta / sparse vektorer till att använda ord inbäddning representation). Vi utbildar våra nätverk med hjälp av tiotals miljoner utbildningsinstanser och utvärderar det på två standardsamlingar: en homogen nyhetssamling (Robust) och en heterogen storskalig webbsamling (ClueWeb). Våra experiment visar att genom att använda lämpliga objektiva funktioner och låta nätverken lära sig input representation baserad på svagt övervakade data leder till imponerande prestanda, med över 13% och 35% MAP förbättringar jämfört med BM25 modellen på Robust och ClueWeb samlingar. Våra Ndings föreslår också att övervakade neurala ranking modeller kan mycket benet t från förträning på stora mängder svagt märkta data som lätt kan erhållas från oövervakade IR-modeller.
De oövervakade hämtningspoängen, t.ex. från BM25, har använts som relevansetiketter för att träna neurala rankingmodeller REF.
3,666,085
Neural Ranking Models with Weak Supervision
{'venue': "SIGIR '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
253
Vi presenterar Moshé, en ny skalbar gruppmedlemskapsalgoritm byggd speciellt för användning i breda nätverk (WAN), som kan drabbas av partitioner. Moshé är utformad med tre nya viktiga funktioner som är viktiga i denna miljö: den undviker att leverera åsikter som återspeglar föråldrade medlemskap; den kräver en enda omgång meddelanden i det vanliga fallet; och den använder en klient-server design för skalbarhet. Dessutom levererar Moshés gränssnitt de krokar som behövs för att förse kunderna med fullständiga virtuella synkroniska semantik. Vi har implementerat Moshé ovanpå en nätverkshändelsemekanism som också utformats speciellt för användning i en WAN. Förutom att specificera algoritmens egenskaper och bevisa att denna specifikation uppfylls, ger vi empiriska resultat av en implementering av Moshé som kör över Internet. De empiriska resultaten rättfärdigar de antaganden som gjorts av vår design och uppvisar goda resultat. I synnerhet slutar Moshé inom en enda kommunikationsrunda över 98 procent av tiden. De experimentella resultaten leder också till intressanta observationer om prestandan hos medlemsalgoritmer över Internet.
Algoritmen i REF avslutas inom en omgång meddelandekommunikation över 98 % av körtiden.
15,066,208
Moshe: A group membership service for WANs
{'venue': 'TOCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
254
Vi introducerar TensorFlow Agents, ett effektivt infrastrukturparadigm för att bygga parallellt förstärka lärande algoritmer i TensorFlow. Vi simulerar flera miljöer parallellt, och grupperar dem för att utföra neurala nätverk beräkning på en sats snarare än individuella observationer. Detta gör det möjligt för TensorFlow exekveringsmotorn att parallellisera beräkning, utan behov av manuell synkronisering. Miljöer trampas in i separata Pythonprocesser för att utveckla dem parallellt utan inblandning av det globala tolklåset. Som en del av detta projekt introducerar vi BatchPPO, ett effektivt genomförande av den proximala policyoptimering algoritm. Genom att öppna upphandlingen av TensorFlow Agents hoppas vi kunna erbjuda en flexibel utgångspunkt för framtida projekt som påskyndar framtida forskning inom området.
Hafner m.fl. REF gör det möjligt för TensorFlow-motorn att parallellisera beräkning för att förbättra träningsprestandan.
10,281,624
TensorFlow Agents: Efficient Batched Reinforcement Learning in TensorFlow
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
255
Detta papper tar upp problemet med videoobjekt segmentering, där den ursprungliga objekt mask ges i den första ramen av en inmatningsvideo. Vi föreslår en ny spatiotemporal Markov Random Field (MRF) modell definieras över pixlar för att hantera detta problem. Till skillnad från konventionella MRF-modeller är de rumsliga beroendena bland pixlar i vår modell kodade av ett Convolutional Neural Network (CNN). Särskilt, för ett givet objekt, sannolikheten för en märkning till en uppsättning rumsligt angränsande pixlar kan förutsägas av en CNN tränas för detta specifika objekt. Som ett resultat, högre ordning, rikare beroenden bland pixlar i uppsättningen kan implicit modelleras av CNN. Med tidsberoenden etablerade genom optiskt flöde kombinerar den resulterande MRF-modellen både rumsliga och tidsbundna signaler för att hantera segmentering av videoobjekt. Det är dock mycket svårt att dra slutsatsen i MRF-modellen på grund av de mycket höga beroendena. I detta syfte föreslår vi en ny CNNembedded algoritm för att utföra ungefärlig inferens i MRF. Denna algoritm fortskrider genom att växla mellan ett temporalt fusionssteg och ett feed-forward CNN-steg. När vår modell initieras med en utseende-baserad en-shot segmentering CNN, överträffar vår modell de vinnande bidragen i DAVIS 2017 Challenge, utan att tillgripa modeller som liknar eller några dedikerade detektorer.
Baserat på optiskt flöde och en rumslig CNN, en pixel-nivå spatio-temporal Markov randomfält (MRF) är byggd i REF där ungefärlig slutsats uppnås genom att använda en CNN.
4,322,524
CNN in MRF: Video Object Segmentation via Inference in a CNN-Based Higher-Order Spatio-Temporal MRF
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
256
Trådlösa sensornätverk har i allt högre grad bidragit med mycket stora mängder data. Den senaste tidens utbyggnad av trådlösa sensornätverk i Smart Citys infrastrukturer har lett till att mycket stora mängder data genereras varje dag inom en rad olika områden, med tillämpningar som miljöövervakning, hälso- och sjukvårdsövervakning och transportövervakning. För att dra nytta av de ökande mängderna data finns det ett behov av nya metoder och tekniker för effektiv datahantering och analys för att generera information som kan bidra till att hantera utnyttjandet av resurser intelligent och dynamiskt. Genom denna forskning föreslås en flernivåarkitektur för smarta städer baserad på semantiska webbtekniker och osäkerhetsteorin Dempster-Shafer. Den föreslagna arkitekturen beskrivs och förklaras i termer av dess funktionalitet och några sammanhangsmedvetna scenarier i realtid.
I REF har en flerskikts smart stadsarkitektur presenterats.
207,425,260
Smart City Architecture and its Applications Based on IoT
{'venue': 'ANT/SEIT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
257
Med tillkomsten av 5G cellulära system finns ett ökat intresse för att utforska högre frekvensband över 6 GHz. Vid dessa frekvenser framträder strålformning som en enkel lösning för att övervinna en högre vägförlust och därigenom förändra Dopplers egenskaper hos de mottagna vågorna. Högre frekvenser kan drabbas av starka Dopplernedsättningar på grund av Dopplers linjära beroende av bärfrekvens, vilket gör dem utmanande att använda i högrörlighetsscenarier, särskilt Vehicular-to-Infrastructure (V2I) kommunikation. Därför är inverkan av strålformning på Doppler-egenskaperna hos de mottagna signalerna av yttersta vikt för framtida V2I-system. I detta dokument presenteras en teoretisk analys av Dopplers effektspektrum i närvaro av strålformning vid sändnings- och/eller mottagningssidorna. Ytterligare approximationer görs för den resulterande Dopplerspridningen och Dopplerförskjutningen när mottagningsbalkens bredd är tillräckligt liten, och en möjlig designlösning presenteras för att styra Dopplerspridningen i V2I-system. Resultaten kan vara av avgörande betydelse vid konstruktion av vågform och luftgränssnitt för V2I-system.
Lorca m.fl. presenterade en teoretisk analys av Doppler effektspektrum i närvaro av strålformning vid sändaren och/eller mottagaren i V2I-system REF.
1,912,115
On Overcoming the Impact of Doppler Spectrum in Millimeter-Wave V2I Communications
{'venue': '2017 IEEE Globecom Workshops (GC Wkshps)', 'journal': '2017 IEEE Globecom Workshops (GC Wkshps)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
258
Abstract-This paper introducerar en adaptiv provtagningsalgoritm för ett mobilt sensornätverk för att uppskatta ett skalärfält. Sensornätverket består av statiska noder och en mobil robot. De statiska noderna kan kontinuerligt ta sensoravläsningar på plats, medan den mobila roboten kan röra sig och provta på flera platser. Mätningarna från roboten och de statiska noderna används för att rekonstruera ett underliggande skalärfält. Den algoritm som presenteras i detta dokument accepterar de mätningar som görs av de statiska noderna som ingångar och beräknar en väg för den mobila roboten som minimerar det integrerade genomsnittliga kvadratfelet i det rekonstruerade fältet under förutsättning att roboten har begränsad energi. Vi antar att fältet inte förändras när roboten tar prover. Förutom simuleringar har vi validerat algoritmen på en robotbåt och ett system av statiska bojar som opererar i en sjö över flera km genomkorsad sträcka samtidigt som vi rekonstruerar temperaturfältet på sjöytan.
I REF kompletterar en robotbåt ett statiskt sensornätverk för att minska fältrekonstruktionsfelet, där båtens rörelse styrs av mätningarna av sensornätverket.
9,456,425
Adaptive Sampling for Estimating a Scalar Field using a Robotic Boat and a Sensor Network
{'venue': 'Proceedings 2007 IEEE International Conference on Robotics and Automation', 'journal': 'Proceedings 2007 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Engineering', 'Computer Science']}
259
För en egenskap P och en sub-fastighet P, Vi säger att P är P partiellt testabar med q-frågor om det finns en algoritm som skiljer, med hög sannolikhet, ingångar i P från ingångar - långt från P, med hjälp av q-frågor. Vissa naturliga egenskaper kräver många frågor för att testa, men kan delas upp i ett litet antal undergrupper för vilka de är delvis testerbara med mycket få frågor, ibland även ett antal oberoende av inmatningsstorlek. När det gäller egenskaper över 0, 1 är begreppet att på så sätt kunna skiljas nära samman med Merlin-Arthur-proofs of Proximity (MAPs) som definieras självständigt i [14]; en uppdelning i r delvis-testbara egenskaper är samma som ett Merlin-Arthur-system där beviset består av identiteten på en av de r delvis-testbara egenskaperna, vilket ger en 2-vägs översättning till en O(log r) storleksproof. Vårt huvudresultat är att för vissa egenskaper med låg komplexitet kan en partition som ovan inte existera, och dessutom att för var och en av våra egenskaper finns det inte ens en enda underfastighet med både en stor storlek och en frågeeffektiv partiell test, särskilt förbättra den nedre gränsen som anges [14]. För detta använder vi varken de traditionella Yao-typ argumenten eller den nyare metoden för kommunikations komplexitet, utan öppnar upp ett nytt tillvägagångssätt för att bevisa lägre gränser. För det första använder vi entropianalys, vilket gör att vi kan tillämpa våra argument direkt på tvåsidiga tester och därmed undvika kostnaden för omvandlingen i [14] från 2-sidiga till 1-sidiga tester. I stort sett använder vi "särskilda instanser" av ett förmodat test för att visa att ett enhetligt slumpmässigt val av en medlem av underegendomen har "låga entropiområden", vilket i slutändan leder till att den har en låg total entropi och därmed har en liten basuppsättning. För att få våra argument att gälla för adaptiva tester använder vi dessutom en mekanism för att "förbättra" inmatningsbitarna (genom ett beslutsträd som adaptivt läser hela indatan) för att exponera den låga entropin som annars inte skulle vara uppenbar. Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än upphovsmannen måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, eller återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Begär tillstånd från authoritys@acm.org. Vi undersöker också möjligheten av en koppling i den andra riktningen, nämligen om förekomsten av en bra partition (eller MAP) kan leda till en relativt frågeeffektiv standard egendomstest. Vi ger några preliminära resultat i denna fråga, inklusive en enkel lägre gräns för den möjliga kompromissen. Vårt andra stora resultat är ett positivt kompromissresultat för den begränsade ramen med ensidiga omedvetna tester. Detta uppnås genom konstruktion av en "universal testare" som fungerar på samma sätt för alla egenskaper som medger det begränsade testet. Vår testare är mycket relaterad till begreppet provbaserad testning (för ett icke-konstant antal frågor) som definieras av Goldreich och Ron i [13]. I synnerhet löser det delvis ett öppet problem som tas upp av [13].
Förhållande till partiell testning REF.
15,073,214
Partial tests, universal tests and decomposability
{'venue': "ITCS '14", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
260
I pappret studeras fallet med en sensornod som fungerar med den kraft som genereras av en miljökälla. Vi presenterar vår modell av ett energidrivet schemaläggningsscenario som kännetecknas av kapaciteten hos nodens energilagring, deadlines och strömavtagningen av de uppgifter som ska utföras. Eftersom utförandet av dessa uppgifter kräver en viss mängd energi och tid, visar vi att komplexiteten i att hitta användbara schemaläggningsstrategier är betydligt ökad jämfört med konventionell realtid schemaläggning. Vi anger online schemaläggningsalgoritmer som tillsammans tar hänsyn till begränsningar som uppstår från både energi- och tidsdomänen. För att visa fördelarna med våra algoritmer jämför vi dem genom simulering med den klassiska Earliest Deadline First Algorithm. Trådlösa sensornätverk har varit föremål för intensiv forskning under de senaste åren. Som för många andra batteridrivna inbyggda system är en sensors drifttid en avgörande konstruktionsparameter. I takt med att de elektroniska systemen fortsätter att krympa är dock mindre energisortering ombord. Forskningen fortsätter att utveckla högre energidensitetsbatterier och superkapacitetsmätare, men den tillgängliga energimängden begränsar fortfarande kraftigt systemets livslängd. På senare tid har energiupptagning visat sig vara ett praktiskt alternativ för att driva sensornoder: Om noder är utrustade med energigivare som t.ex. solceller, den genererade energin kan öka autonomin av noderna avsevärt. I [6], teknik har diskuterats hur en sensor nod kan utvinna energi från sin fysiska miljö. Dessutom finns det flera prototyper (t.ex. [2, 3] ) har presenterats som visar både genomförbarhet och nytta av sensorer noder som drivs med solenergi eller vibrationell energi.
En schemaläggningsalgoritm som bygger på sensorernas batterikapacitet presenteras av Moser et al. Hoppa över det.
13,513,552
LAZY SCHEDULING FOR ENERGY HARVESTING SENSOR NODES
{'venue': 'DIPES', 'journal': None, 'mag_field_of_study': ['Computer Science']}
261
Bakgrund: Beräkningssimulering med numeriska analysmetoder kan bidra till att bedöma mitralventilens (MV) komplexa biomekaniska och funktionella egenskaper. Det är viktigt att korrekt bestämma den fysiska kontaktinteraktionen mellan MV-utrustningens komponenter under den beräkningsmässiga MV-utvärderingen. Vi antar att kontaktinteraktionen mellan folder-to-chordae spelar en viktig roll i den beräkningsmässiga MV-utvärderingen, särskilt för att kvantifiera graden av folder coapting som är direkt relaterade till svårighetsgraden av mitral uppstötning (MR). I denna studie har vi utfört dynamiska finita elementssimuleringar av MV-funktion med och utan kontaktinteraktion mellan folder-to-chordae och fastställt effekten av kontaktinteraktion mellan folder-to-chordae på den beräkningsmässiga MV-utvärderingen. Metoder: Beräkning av virtuella MV modeller skapades med hjälp av MV geometriska data hos en patient med normal MV utan MR och en annan med patologisk MV med MR som erhållits från 3D ekokardiografi. Beräknings-MV-simulering med fullständig kontaktinteraktion specificerades för att innefatta hela fysiskt tillgängliga kontaktinteraktioner mellan bipacksedlarna och ackord tendineae. Beräknings-MV-simulering utan kontaktinteraktion mellan folder och chordae specificerades genom att de främre och bakre bipacksedlarna definierades som det enda kontaktinförandet. Resultat: Utan kontaktinteraktion mellan folder-to-chordae visade de beräkningsmässiga MV-simuleringarna fysiskt orealistiska kontaktinteraktioner mellan flygbladen och ackorden. Vid kontaktinteraktion mellan folder och chordae behöll det främre marginella ackordet den rätta kontakten med den bakre bipacksedeln under hela systolen. Storleken på den icke-kontakt region i simuleringen med folder-tochordae kontaktinteraktion var mycket större än för simuleringen med endast folder-to-leaflet kontakt. Vi har med framgång demonstrerat effekten av kontaktinteraktion mellan folder-to-chordae för att bestämma folder coaptation i beräkningsdynamisk MV utvärdering. Vi fann att fysiskt realistiska kontaktinteraktioner mellan flygbladen och ackorden bör övervägas för att korrekt kvantitera bipacksedeln coaptation för MV simulering. Beräkningsutvärdering av MV-funktion som möjliggör exakt kvantifiering av bipacksedlar coaptation har stor potential att bättre kvantifiera svårighetsgraden av MR.
Till exempel Rim et al. REF studerade effekten av kontaktinteraktion mellan folder-to-chordae och visualiserade resultatet som en färgkarta.
18,695,562
Effect of leaflet-to-chordae contact interaction on computational mitral valve evaluation
{'venue': 'BioMedical Engineering OnLine', 'journal': 'BioMedical Engineering OnLine', 'mag_field_of_study': ['Computer Science', 'Medicine']}
262
Abstrakt. Vi presenterar ett ramverk för modellkontroll av samtidiga programvarusystem som omfattar både tillstånd och händelser. I motsats till andra state/event-strategier integrerar vårt arbete också två kraftfulla verifieringstekniker, kontraexempelstyrd abstraktion förfining och kompositionstänkande. Vår specifikationsspråk är en tillstånd / händelse förlängning av linjär temporal logik, och tillåter oss att uttrycka många egenskaper hos programvara på ett koncist och intuitivt sätt. Vi visar hur vanliga automatiska LTL-modeller som kontrollerar algoritmer kan anpassas till vårt ramverk utan extra kostnad, vilket gör att vi direkt kan dra nytta av den stora forskningen om effektiv LTL-verifiering. Vi har implementerat detta arbete inom vår samtidiga C-modellkontroll, MAGIC, och kontrollerat ett antal egenskaper hos OpenSSL-0.9.6c (en open-source implementation av SSL-protokollet) och Micro-C OS version 2 (ett operativsystem i realtid för inbyggda applikationer). Våra experiment visar att detta nya tillvägagångssätt inte bara underlättar skrivandet av specifikationer, men också skryter med viktiga vinster både i rymden och i tid under verifiering. I vissa fall stötte vi till och med på specifikationer som inte kunde verifieras med hjälp av traditionella ren händelsebaserade eller statsbaserade metoder, utan blev lätthanterliga inom vår stat/eventsram. Vi rapporterar en bugg i källkoden för Micro-C OS version 2, som hittades under våra experiment.
Denna formulering har fördelen att man kan anpassa tekniker som används för modellkontroll av tidsmässiga egenskaper hos samtidiga programvarusystem, inklusive motexempel-vägledd abstraktion förfining och kompositionsresonemang REF.
11,384,322
State/event-based software model checking
{'venue': 'In Integrated Formal Methods', 'journal': None, 'mag_field_of_study': ['Computer Science']}
263
Abstract-Vi presenterar en programplanering-för-demonstration ram för att generiskt extrahera relevanta funktioner i en given uppgift och för att ta itu med problemet med att generalisera den förvärvade kunskapen till olika sammanhang. Vi validerar arkitekturen genom en serie experiment, där en mänsklig demonstrator lär en humanoid robot enkla manipulatoriska uppgifter. En sannolikhetsbaserad uppskattning av relevansen föreslås genom att först projicera rörelsedata på ett generiskt latent utrymme med hjälp av huvudkomponentanalys. De resulterande signalerna kodas med hjälp av en blandning av Gaussian/Bernoulli-distributioner (Gaussian mixing model/Bernoulli mixing model). Detta ger ett mått på spatio-temporala korrelationer över de olika metoder som samlats in från roboten, som kan användas för att bestämma ett mått på imitationen prestanda. De banor generaliseras sedan med Gaussian blandning regression. Slutligen beräknar vi analytiskt banan som optimerar imitationen metrisk och använder detta för att generalisera skickligheten till olika sammanhang. Index Terms-Gaussian blandning modell (GMM), mänskliga rörelse subrymd, människa-robot interaktion (HRI), lärande genom imitation, metrisk av imitation, programmering genom demonstration (PbD).
I REF presenteras en programplanering per demonstrationsram där relevanta inslag i en given uppgift lärs in och sedan generaliseras för olika sammanhang.
5,679,082
On Learning, Representing, and Generalizing a Task in a Humanoid Robot
{'venue': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'journal': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
264
Abstract-I detta dokument presenteras en förbättrad Layer-2 multi-hop trådlös nätverk implementation för infrastrukturbaserade Wireless Mesh Networks. Detta arbete kombinerar flexibiliteten hos Layer-2 Wireless Bridging med den dynamiska självkonfigurerande kapaciteten hos MANET routing. Det viktigaste bidraget i detta dokument är en undersökning av de problem som uppstått vid tillämpningen av en ren överbryggande lösning på trådlösa multihopnät och utvecklingen av flera mekanismer för att lösa dessa problem. Detta arbete genomfördes och utplacerades i en verklig testbäddsmiljö med hjälp av Routerboard-hårdvara och med hjälp av ett antal öppna nätverksverktyg i enlighet med behoven på vår plattform. Den utvecklade testbädden innehåller självläkande och självkonfigurerande funktioner utan att kräva en traditionell MANET routing protokoll. Istället utökades de 802.11 beacon-ramar som sändes av Access Points med länkinformation för att möjliggöra optimal konstruktion av meshtopologin. Resultaten presenteras som visar den automatiserade topologikonstruktionsmekanismen. Ytterligare resultat visar också de förbättringar som gjorts till den normala 802.11 Layer-2 mobilitetsmekanismen.
Dessutom studerar författarna i REF konsekvenserna av att använda rena överbryggande lösningar i trådlösa nätverk och presenterar en förbättrad brobaserad implementation för att tillhandahålla dynamiska, självkonfigurerande och självläkande funktioner som undviker ett routingprotokoll.
18,106,023
An enhanced bridged-based multi-hop wireless network implementation
{'venue': '2010 The 5th Annual ICST Wireless Internet Conference (WICON)', 'journal': '2010 The 5th Annual ICST Wireless Internet Conference (WICON)', 'mag_field_of_study': ['Computer Science']}
265
Livsmedelssäkerhetens ökande betydelse har gjort spårbarheten till en avgörande fråga inom jordbruksindustrin. I den här artikeln har vi analyserat de faktorer som formar relationerna mellan köpare och leverantör och hur de påverkar råvaruspårbarheten. För att göra det har vi först gjort en litteraturgenomgång för att utveckla en analytisk ram. Därefter har vi genomfört fyra fallstudier om grönsaksföretag i syfte att avslöja de variabler som kännetecknar förhållandet mellan köpare och leverantör och dess påverkan på spårbarheten inom denna sektor. Slutligen har vi jämfört de observerade kopplingarna med den begreppsmässiga ramen som härletts ur litteraturen för att bygga och förbättra modellen.
Alvare m.fl. I REF undersöktes faktorer som formar kund-leverantörsrelationer och deras inverkan på spårbarheten av livsmedel.
53,452,169
Buyer–supplier relationship's influence on traceability implementation in the vegetable industry
{'venue': None, 'journal': 'Journal of Purchasing and Supply Management', 'mag_field_of_study': ['Business']}
266
Abstract- Existensen av en polynom kärna för Odd Cycle Transversal var ett ökänt öppet problem i parameteriserad komplexitet. Nyligen löstes detta av de nuvarande författarna (Kratsch och Wahlström, SODA 2012), med en randomiserad polynomkärna för problemet, med hjälp av matroidteori för att koda flödesfrågor över en uppsättning terminaler i storlek polynomial i antalet terminaler (snarare än den totala grafstorleken, som kan vara superpolynomiskt större). I det nuvarande arbetet etablerar vi vidare nyttan av matroidteori för kärnorisering genom att visa tillämpningar av ett resultat på representativa uppsättningar på grund av Lovász (Combinatorial Surveys 1977) och Marx (TCS 2009). Vi visar hur representativa uppsättningar kan användas för att ge en polynomkärna för det svårfångade Nästan 2-sats problemet (där uppgiften är att ta bort som mest k klausuler för att göra en 2-CNF formel satisfiable), lösa ett stort öppet problem i kärnorisering. Vi tillämpar också de representativa sätten verktyg på problemet med att hitta irrelevanta hörn i graf skär problem, det vill säga hörn som kan göras odelbara utan att påverka problemets status. Detta ger de första betydande framstegen mot en polynomkärna för multiway cut-problemet; i synnerhet får vi en polynomkärna för multiway cut-fall med ett begränsat antal terminaler. Båda dessa kärnresultat har betydande spin-off-effekter och producerar de första polynomkärnorna för en rad relaterade problem. Mer allmänt, de irrelevanta vertex resultaten har implikationer för att täcka min-cuts i grafer. I synnerhet, med tanke på en riktad graf och en uppsättning av terminaler, kan vi hitta en uppsättning storlek polynomial i antalet terminaler (en cut-covering set) som innehåller en minsta vertex skär för varje val av källor och sänkor från terminaluppsättningen. På samma sätt, med tanke på en oriktad graf och en uppsättning av terminaler, kan vi hitta en uppsättning hörn, av storlek polynomial i antalet terminaler, som innehåller en minsta multiway cut för varje partition av terminalerna i ett begränsat antal uppsättningar. Båda resultaten är polynom tid. Vi förväntar oss att detta kommer att ha ytterligare applikationer; i synnerhet, vi får direkta, reduktion regelbaserade kärnor för alla problem ovan, i motsats till den indirekta komprimeringsbaserade kärnan som tidigare gavs för Odd Cycle Transversal. Alla våra resultat är randomiserade, med fel sannolikheter som kan göras exponentiellt liten i storleken på indata, på grund av att det behövs en representation av en matris för att tillämpa de representativa uppsättningar verktyg.
Nyligen gavs en polynomkärna för EDGE och NODE MULTIWAY CUT för ett konstant antal terminaler eller avtagbara terminaler REF; dock är frågan om en polynomkärna i det allmänna fallet fortfarande öppen.
16,259,614
Representative Sets and Irrelevant Vertices: New Tools for Kernelization
{'venue': '2012 IEEE 53rd Annual Symposium on Foundations of Computer Science', 'journal': '2012 IEEE 53rd Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
267
Framväxten och den utbredda användningen av sociala nätverk online har lett till en dramatisk ökning av tillgången till uppgifter om social aktivitet. Viktigt är att dessa data kan utnyttjas för att undersöka, på mikroskopisk nivå, några av de problem som har fångat uppmärksamheten hos ekonomer, marknadsförare och sociologer i årtionden, såsom t.ex. produkt adoption, användning och konkurrens. I detta dokument föreslår vi en probabilistisk modell för kontinuerlig användning, baserad på tidspunktsprocesser, för införande och frekvens för användning av konkurrerande produkter, där frekvensen av användning av en produkt kan moduleras av andra produkter. Denna modell gör det möjligt för oss att effektivt simulera antagandet och återkommande användningar av konkurrerande produkter, och generera spår där vi lätt kan känna igen effekten av socialt inflytande, aktualitet och konkurrens. Vi utvecklar sedan en slutledningsmetod för att effektivt passa modellparametrarna genom att lösa ett konvext program. Problemet frikopplas till en samling mindre subproblem, vilket lätt expanderar till nätverk med hundratusentals noder. Vi validerar vår modell över syntetiska och verkliga diffusionsdata som samlats in från Twitter, och visar att den föreslagna modellen inte bara ger en bra passform till data och mer exakta förutsägelser än alternativ, men också ger tolkningsbara modellparametrar, vilket gör att vi kan få insikter i några av de faktorer som driver produktacceptering och frekvens för användning.
Valera och Gomez-Rodriguez REF utvecklade en metod för att förutsäga antagandet och användningen av liknande produkter i sociala nätverk.
15,024,920
Modeling Adoption and Usage of Competing Products
{'venue': '2015 IEEE International Conference on Data Mining', 'journal': '2015 IEEE International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']}
268
Motiverade av applikationer till sensor, peer-to-peer, och adhoc nätverk, studerar vi problemet med datorfunktioner av värden vid noderna i ett nätverk på ett helt distribuerat sätt. I synnerhet anser vi att separata funktioner, som kan skrivas som linjära kombinationer av funktioner av enskilda variabler. Kända iterativa algoritmer för medelvärden kan användas för att beräkna normaliserade värden för sådana funktioner, men dessa algoritmer sträcker sig i allmänhet inte till beräkningen av de faktiska värdena för separata funktioner. Det viktigaste bidraget i detta dokument är utformningen av en distribuerad randomiserad algoritm för beräkning av separerbara funktioner baserat på egenskaper hos exponentiella slumpvariabler. Vi band drifttiden för vår algoritm i termer av drifttiden för en informationsspridning algoritm som används som en subrutin av algoritmen. Eftersom vi är intresserade av helt distribuerade algoritmer, anser vi att en randomiserad skvallermekanism för informationsspridning är subrutinen. Att kombinera dessa algoritmer ger en komplett och enkel distribuerad algoritm för att beräkna separerbara funktioner. Det andra bidraget i detta dokument är en analys av den information som sprider tiden för skvalleralgoritmen. Denna analys ger en övre gräns för informationsspridningstiden, och därmed en motsvarande övre gräns för algoritmens körtid för att beräkna separerade funktioner, när det gäller ledning av en lämplig stokastisk matris. Dessa gränser innebär att, för en klass av grafer med små spektralgap (såsom rutnätsdiagram), den tid som används av vår algoritm för att beräkna medelvärden är av en mindre ordning än den tid som krävs för beräkning av medelvärden av ett känt iterativt skvaller schema [5].
Merparten av litteraturen i skvaller algoritm inställning beräknar funktioner som genomsnitt, summa eller separerbara funktioner REF.
949,717
Computing separable functions via gossip
{'venue': "PODC '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
269
Abstrad-We studerar anslutning och kapacitet för tinite är ad hoc trådlösa nätverk, med ett ökande antal noder (dense nätverk). Vi finner att nätverkets egenskaper är helt beroende av dämpningsfunktionens form. För effekt lagen dämpning funktioner, konnektivitetsskalor, och utnyttjahle hastighet per nod är känd för att minska som I /, %. Tvärtom, om dämpningsfunktionen inte har en singularitet vid ursprunget och är nnifiwrnly jagad. vi irhtain hundar på perkolationsdomänen för stora nodtätheter, som visar att antingen nätverket heconies dkonnected, eller den tillgängliga hastigheten per nod minskar som l / n.
I REF studeras avvägningen mellan konnektivitet och kapacitet för täta nät.
12,961,161
Connectivity vs capacity in dense ad hoc networks
{'venue': 'IEEE INFOCOM 2004', 'journal': 'IEEE INFOCOM 2004', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
270
Automatisk neural arkitektur har visat sin potential att upptäcka kraftfulla neurala nätverksarkitekturer. Befintliga metoder, oavsett om de är baserade på förstärkande inlärning eller evolutionära algoritmer (EA), genomför arkitektursökning i ett diskret utrymme, vilket är mycket ineffektivt. I detta papper föreslår vi en enkel och effektiv metod för automatisk neural arkitektur design baserad på kontinuerlig optimering. Vi kallar denna nya metod neural arkitektur optimering (NAO). Det finns tre viktiga komponenter i vårt föreslagna tillvägagångssätt: (1) En kodare bäddar / kartor neurala nätverk arkitekturer i ett kontinuerligt utrymme. (2) En prediktor tar kontinuerlig representation av ett nätverk som ingång och förutspår dess noggrannhet. (3) En avkodare kartlägger en kontinuerlig representation av ett nätverk tillbaka till sin arkitektur. Prestandaprediktorn och kodaren gör det möjligt för oss att utföra gradientbaserad optimering i det kontinuerliga utrymmet för att hitta inbäddningen av en ny arkitektur med potentiellt bättre noggrannhet. En sådan bättre inbäddning avkodas sedan till ett nätverk av kodaren. Experiment visar att arkitekturen som upptäckts med vår metod är mycket konkurrenskraftig för bildklassificeringsuppgift på CIFAR-10 och språkmodellering uppgift på PTB, outperforming eller i par med de bästa resultaten av tidigare arkitektursökmetoder med en betydande minskning av beräkningsresurser. Speciellt får vi 2,11% testuppsättning felfrekvens för CIFAR-10 bildklassificering uppgift och 56,0 testuppsättning perplexitet av PTB språkmodellering uppgift. De mest upptäckta arkitekturerna för båda uppgifterna överförs framgångsrikt till andra uppgifter som CIFAR-100 och WikiText-2. I kombination med den nyligen föreslagna viktdelningsmekanismen upptäcker vi dessutom kraftfull arkitektur på CIFAR-10 (med felfrekvens 3,53 %) och på PTB (med testuppsättning perplexitet 56,6), med mycket begränsade beräkningsresurser (mindre än 10 GPU-timmar) för båda uppgifterna.
Mer nyligen, Luo et al. Föreslå neural arkitekturoptimering (NAO) REF-metoden för att utföra arkitektursökningen på kontinuerligt utrymme genom att utnyttja teknik för kodning-avkodning.
52,071,151
Neural Architecture Optimization
{'venue': 'NeurIPS', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
271
Utvalda ansökan: I den här artikeln föreslog vi en klassificering modell av tibetanskt medicinskt syndrom baserat på atomklassificering föreningsregler för att ge effektivt beslutsfattande stöd för diagnos och behandling av vanliga platåsjukdomar mer vetenskapligt. Sammanfattning av denna webbsida: Klassificeringsregler som integrerar föreningsregler med klassificering spelar en viktig roll i datautvinning. Tidsåtgången för att konstruera klassificeringsmodellen och förutse nya fall kommer dock att bli lång, på grund av det stora antalet regler som genereras under brytningen av föreningsregler, vilket också kommer att resultera i den stora systemförbrukningen. Därför föreslog detta dokument en klassificeringsmodell baserad på atomklassificeringssällskapets regler, och tillämpade den för att konstruera klassificeringsmodellen för ett tibetanskt medicinskt syndrom för den vanliga platåsjukdomen kronisk atrofisk gastrit. För det första, introducera idén om "relativt stöd", och använda den restriktion-baserade Apriori algoritmen för att bryta de starka reglerna för atomklassificering association mellan symptom och syndrom, och kunskapsbasen för tibetanska medicinska kliniker kommer att byggas. För det andra, bygga upp klassificeringsmodellen för det tibetanska medicinska syndromet efter beskärning och prioritering regler, och idén om "partiell klassificering" och "först lätt att post svårt" strategi introduceras för att förverkliga förutsägelsen om detta tibetanska medicinska syndrom. Slutligen validerar man klassificeringsmodellens effektivitet och jämför med CBA-algoritmen och fyra traditionella klassificeringsalgoritmer. De experimentella resultaten visade att den föreslagna metoden kan förverkliga konstruktionen och klassificeringen av klassificeringsmodellen för det tibetanska medicinska syndromet på kortare tid, med färre men mer begripliga regler, samtidigt som en högre noggrannhet säkerställs med 92,8%.
Zhu m.fl. I Ref föreslogs en klassificeringsmodell baserad på regler för atomklassificeringssällskap.
149,448,569
Research on Classification of Tibetan Medical Syndrome in Chronic Atrophic Gastritis
{'venue': None, 'journal': 'Applied Sciences', 'mag_field_of_study': ['Engineering']}
272
Mycket arbete på idiomer har fokuserat på typidentifiering, dvs. att avgöra om en sekvens av ord kan bilda ett idiomatiskt uttryck. Eftersom en idiom typ ofta har en bokstavlig tolkning också, symbolisk klassificering av potentiella idiom i sammanhanget är avgörande för NLP. Vi undersöker användningen av informativa förkunskaper om det övergripande syntaktiska beteendet hos ett potentiellt ideologiskt uttryck (typbaserad kunskap) för att avgöra om en instans av uttrycket används idiomatiskt eller bokstavligt (tokenbaserad kunskap). Vi utvecklar oövervakade metoder för uppgiften, och visar att deras prestanda är jämförbar med den av toppmoderna övervakade tekniker.
REF, till exempel, använda förkunskaper om det övergripande syntaktiska beteendet hos ett idiomatiskt uttryck för att avgöra om en instans av uttrycket används bokstavligen eller idiomatiskt.
235,425
Pulling their Weight: Exploiting Syntactic Forms for the Automatic Identification of Idiomatic Expressions in Context
{'venue': 'Workshop on A Broader Perspective on Multiword Expressions', 'journal': None, 'mag_field_of_study': ['Computer Science']}
273
Att identifiera komplexa ord (CWs) är en viktig men ofta förbisedd uppgift inom lexikal förenkling (processen att automatiskt ersätta CWs med enklare alternativ). Om alltför många ord identifieras kan substitutioner göras felaktigt, vilket leder till en förlust av mening. Om alltför få ord identifieras kan de som hindrar en användares förståelse missas, vilket resulterar i en komplex sluttext. I detta dokument behandlas uppgiften att utvärdera olika metoder för CW-identifiering. En corpus av meningar med kommenterade CWs bryts från Simple Wikipedia redigera historia, som sedan används som grund för flera experiment. För det första förklaras corpus-designen och resultaten av valideringsförsöken med hjälp av mänskliga domare rapporteras. Experiment utförs i CW identifieringstekniker av: förenkla allt, frekvenströskel och utbildning en stöd vektor maskin. Dessa bygger på tidigare tillvägagångssätt för uppgiften och visar att tröskeln inte är helt annorlunda än den mer naiva tekniken att förenkla allting. Stödvektormaskinen uppnår en liten ökning av precisionen över de två andra metoderna, men till priset av en dramatisk avväxling i återkallande.
Ytterligare experiment i REF visar att en mer resursintensiv tröskelbaserad metod inte fungerar nämnvärt annorlunda på denna datauppsättning till en mer naiv teknik för att förenkla allting, medan en SVM-klassificerare presterar bättre i fråga om precision men gör det på bekostnad av en mycket lägre återkallelse.
17,679,719
A Comparison of Techniques to Automatically Identify Complex Words.
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
275
Statistik finns i två huvudsakliga smaker: speakist och Bayesian. Av historiska och tekniska skäl har den frekventistiska statistiken traditionellt dominerat empirisk dataanalys och är förvisso fortfarande allmänt förekommande inom empirisk programvaruteknik. Denna situation är olycklig eftersom den frekventistiska statistiken lider av ett antal brister – såsom brist på flexibilitet och resultat som är ointuitiva och svåra att tolka – som begränsar deras effektivitet när det gäller de heterogena data som i allt högre grad finns tillgängliga för empirisk analys av programvaruteknik. I detta dokument pekar vi på dessa brister och presenterar Bayesian dataanalysteknik som ger påtagliga fördelar eftersom de kan ge tydligare resultat som samtidigt är robusta och nyanserade. Efter en kort, hög nivå introduktion till de grundläggande verktygen i Bayesian statistik, presenterar vi en ny analys av två empiriska studier om effektiviteten av automatiskt genererade tester respektive prestanda av programmeringsspråk, respektive. Genom att jämföra de ursprungliga frekventistiska analyserna med våra nya Bayesianska analyser visar vi på de konkreta fördelarna med de senare. Sammanfattningsvis förespråkar vi en mer framträdande roll för Bayesian statistikteknik i empirisk programvaruteknik forskning och praktik. Tillgänglighet. Alla maskinläsbara data och analysskript som används i detta dokuments analyser finns fritt tillgängliga på https://bitbucket.org/caf/bda-in-ese Empirical research in software engineering. Statistisk analys av empiriska data har blivit vanligt förekommande inom programvaruteknikforskning [84, 3, 36], och det är till och med att göra sin väg in i mjukvaruutveckling praxis [45]. Som vi diskuterar nedan är den överväldigande majoriteten av de statistiska tekniker som används inom programvaruteknik empirisk forskning dock av det frekventistiska slaget, med Bayesian statistik knappast ens nämns. Naturligtvis Bayesian statistik är en grundläggande komponent i många maskininlärning tekniker [7, 39], som sådan, det används i programvaruteknik forskning indirekt när maskininlärning används. I detta dokument är vi dock 3 som handlar om den direkta användningen av statistik för att analysera empiriska data från det vetenskapliga perspektivet-en strävan som verkar främst begränsad till frekventistiska tekniker inom programvaruteknik [36]. Som vi argumenterar i resten av tidningen, är detta en förlorad möjlighet eftersom Bayesian tekniker inte lider av flera begränsningar av frekventistiska sådana, och kan stödja rika, robusta analyser i flera situationer. För att bekräfta intrycket att Bayesiansk statistik normalt inte används inom empirisk programvaruteknik gjorde vi en liten litteraturgenomgång av ICSE-dokument. 1 Vi valde ut alla artiklar från huvudforskningsspåret i de senaste sex utgåvorna av International Conference on Software Engineering (ICSE 2013 to ICSE 2018) som nämner "empiriska" i sin titel eller i sin sektions namn i processen. Detta gav 25 uppsatser, av vilka vi förkastade en [76] som visade sig inte vara en empirisk studie. De experimentella data i resterande 24 papper kommer från olika källor: produktionen av analysatorer och andra verktyg [16, 17, 18, 55, 62], gruvdrift av arkiv av programvara och andra artefakter [13, 48, 50, 70, 87, 88], resultatet av kontrollerade experiment som involverar människor [61, 79, 85], intervjuer och undersökningar [5, 8, 23, 44, 46, 49, 65, 72], och en litteratur översyn [74]. Som man kan förvänta sig från en förstklassig plats som ICSE följer de 24 tidningarna rekommenderade rutiner för rapportering och analys av data med hjälp av signifikanstester (6 papper), effektstorlekar (5 papper), korrelationskoefficienter (5 papper), frekvent regression (2 papper) och visualisering i diagram eller tabeller (23 papper). Men ingen av tidningarna använder Bayesiansk statistik. Faktum är att inget papper förutom två [23, 87] ens nämner termerna "bayes" eller "bayesian". Ett av undantagen [87] hänvisar endast till Bayesian maskininlärningsteknik som används i relaterade arbeten som den jämför med. Det andra undantaget [23] innehåller en presentation av de två åsikterna om frekventistisk och Bayesiansk statistik-med en kritik av p-värden liknande den vi gör i Sect. 2.2-men visar inte hur det senare kan användas i praktiken. Syftet med [23] är att undersöka sambandet mellan empiriska rön inom programvaruteknik och den faktiska uppfattningen hos programmerare om samma ämnen. I detta syfte är det baserat på en undersökning av programmerare vars svar analyseras med hjälp av frekventistisk statistik; Bayesian statistik nämns för att rama diskussionen om förhållandet mellan bevis och övertygelse, men inte har tidigare den inledande andra delen. Vårt dokument har ett mer direkt syfte: att konkret visa hur Bayesian analys kan tillämpas i praktiken i empirisk programvaruteknik forskning, som ett alternativ till frekventistisk statistik; därmed är dess omfattning ett komplement till [23] s. Mer allmänt är vi inte medvetna om någon direkt tillämpning av Bayesian dataanalys på empiriska programvarutekniska data med undantag av [28, 29] och [26]. Den tekniska rapporten [28] och dess korta sammanfattning [29] är våra preliminära undersökningar i linje med detta dokument. Ernst [26] presenterar en konceptuell replikering av en befintlig studie för att argumentera för den analytiska effektiviteten hos flera Bayesianska modeller.
Bara nyligen, Furia et al. REF föreslår sådana riktlinjer efter att ha analyserat två empiriska studier med Bayesian-teknik som avslöjar dess fördelar med att ge tydligare resultat som samtidigt är robusta och nyanserade.
53,293,439
Bayesian Data Analysis in Empirical Software Engineering Research
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
276
Abstract-Traditionally, Markov modeller har använts för att studera multiserversystem med hjälp av uttömmande eller gated service. Dessutom har uttömmande begränsade och grindbegränsade modeller också använts i kommunikationssystem för att minska den totala latensen. Nyligen författarna har föreslagit en ny Markov Chain tillvägagångssätt för att studera grindbegränsad tjänst. Multiqueue system såsom valsystem, där servern betjänar olika köer har också studerats ingående men som en separat gren av köteori. I detta dokument föreslås en beskrivning av multiqueue systems i form av en ny Markov Chain som kallas Zero-Server Markov Chain (ZSMC). Modellen används för att härleda en formel för väntetiderna i ett uttömmande röstningssystem. Ett intuitivt resultat erhålls och detta används för att utveckla en appoximat metod som fungerar bra över normala driftsintervall.
Mapp m.fl. REF har föreslagit en beskrivning av multiqueue-system i form av en ny Markov-kedja som kallas Zero-Server Markov Chain (ZSMC).
7,435,103
Exploring a New Markov Chain Model for Multiqueue Systems
{'venue': '2010 12th International Conference on Computer Modelling and Simulation', 'journal': '2010 12th International Conference on Computer Modelling and Simulation', 'mag_field_of_study': ['Computer Science']}
277
Abstract-Rapidly-exploating slumpmässiga träd (RRTs) är populära i rörelseplanering eftersom de hittar lösningar effektivt på enstaka-query problem. Optimala RRTs (RRT*s) utvidga RRTs till problemet med att hitta den optimala lösningen, men genom att göra det asymptotiskt hitta den optimala vägen från det initiala tillståndet till varje tillstånd i planeringsdomänen. Detta beteende är inte bara ineffektivt utan också oförenligt med deras enskilda krav. För problem som försöker minimera vägens längd, kan delmängd av tillstånd som kan förbättra en lösning beskrivas av en prolat hypersfäroid. Vi visar att om inte denna delmängd provtas direkt blir sannolikheten för att förbättra en lösning godtyckligt liten i stora världar eller höga tillstånd dimensioner. I detta dokument presenterar vi en exakt metod för att fokusera sökningen genom att direkt ta del av denna delmängd. Fördelarna med den presenterade provtagningstekniken demonstreras med en ny algoritm, informerad RRT*. Denna metod behåller samma probabilistiska garantier för fullständighet och optimalitet som RRT* samtidigt som konvergensgraden och den slutliga lösningens kvalitet förbättras. Vi presenterar algoritmen som en enkel ändring av RRT* som kan utökas ytterligare med mer avancerade banplaneringsalgoritmer. Vi visar experimentellt att det överträffar RRT* i takt med konvergens, slutlig lösningskostnad och förmåga att hitta svåra passager samtidigt som det visar mindre beroende av den statliga dimensionen och omfattningen av planeringsproblemet.
Som en ytterligare förbättring av RRT* infördes informerade RRT* genom Ref.
12,233,239
Informed RRT*: Optimal Sampling-based Path Planning Focused via Direct Sampling of an Admissible Ellipsoidal Heuristic
{'venue': '2014 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2014), pp. 2997-3004, 14-18 Sept. 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']}
278
Webbläsaren är en mördarapp på mobila enheter som smartphones. Användarupplevelsen av mobil webbläsning är dock oönskad på grund av den långsamma resursbelastningen. För att förbättra prestandan för belastning av webbresurser har caching antagits som en nyckelmekanism. De befintliga passiva mätstudierna kan dock inte på ett uttömmande sätt karakterisera prestandan hos mobil webbcachelagring. Till exempel, de flesta av dessa studier fokuserar främst på klient-sidan implementationer men inte server-sidan konfigurationer, lider av partiska användarbeteenden, och misslyckas med att studera "misslyckade" resurser. För att ta itu med dessa frågor presenterar vi i detta dokument ett proaktivt tillvägagångssätt för en omfattande mätningsstudie om mobil webbcacheprestanda. Den viktigaste idén med vår strategi är att proaktivt krypa resurser från hundratals webbplatser periodiskt med en finkornig tidsintervall. Således kan vi avslöja resursuppdatering historia och cache konfigurationer på servern sidan, och analysera cache prestanda i olika tidsgranulatiteter. Baserat på våra insamlade data bygger vi en ny cacheanalysmodell och studerar den övre gränsen för hur stor andel av resurserna som potentiellt skulle kunna cachas och hur effektiv cachingen fungerar i praktiken. Vi rapporterar detaljerade analysresultat från olika webbplatser och olika typer av webbresurser, och identifierar de problem som orsakas av otillfredsställande cacheprestanda. I synnerhet identifierar vi två stora problem -Redundant Transfer och Miscached Resource, som leder till otillfredsställande cacheprestanda. Vi undersöker tre huvudorsaker: Samma innehåll, Heuristic Expiration, och konservativ Expiration Time, och diskutera vad mobila webbutvecklare kan göra för att lindra dessa problem.
Vårt tidigare arbete REF använde ett proaktivt tillvägagångssätt för att mäta prestandan hos mobila webbcache och fann att mer än 50 % av resursförfrågningarna är överflödiga i genomsnitt för 55 populära mobila webbplatser.
2,306,791
Measurement and Analysis of Mobile Web Cache Performance
{'venue': "WWW '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
279
Resursbegränsningen av multi-access edge computing (MEC) är en av de viktigaste frågorna för att tillhandahålla datatjänster med hög tillförlitlighet för Internet of Things (IoT)-enheter. Dessutom, med den kraftiga ökningen av uppgiftsförfrågningar från IoT-enheter, kräver kravet på beräkningsuppgifter dynamisk skalbarhet samtidigt som potentialen att avlasta uppgifter till mobila volontärnoder (MVN). Vi föreslår därför ett skalbart MEC-paradigm (SVMEC), som inte bara kan minska resursbegränsningen för MEC utan också förbättra skalbarheten hos datortjänster för IoT-enheter och minska kostnaderna för att använda datorresurser. I SVMEC-paradigmet kan en MEC-leverantör utföra sina användares uppgifter genom att välja ett av tre sätt: (i) Gör sig själv på lokal MEC, (ii) avlasta till fjärrmolnet och (iii) avlasta till MVN. Vi formulerar problemet med gemensamt nodval och resursfördelning som en blandad Integer Ickelinjär programmering (MINLP) problem, vars främsta mål är att minimera den totala beräkningen overhead i termer av den viktade summan av uppgiften slutföra tid och monetära kostnader för att använda datorresurser. För att lösa det, vi antar alternativa optimeringstekniker genom att sönderdela det ursprungliga problemet i två sub-problem: Resurstilldelning sub-problem och nod urval sub-problem. Simuleringsresultat visar att vårt föreslagna system överträffar de befintliga systemen när det gäller de totala omkostnaderna för beräkning.
Qui m.fl. I REF studerades uppgiften att avlasta till en MEC-server för att utöka resurskapaciteten genom att anställa resurser från molndataresurser och fordonsnoder för att minimera de totala datoromkostnaderna, inklusive latens och monetära kostnader, för att använda datorresurser.
67,772,211
Joint Node Selection and Resource Allocation for Task Offloading in Scalable Vehicle-Assisted Multi-Access Edge Computing
{'venue': 'Symmetry', 'journal': 'Symmetry', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
280
Abstract-Med ökningen av Internet computing, outsourcing svåra beräkningsuppgifter blev ett viktigt behov. Men när beräkningen läggs ut på entreprenad förlorar jobbägaren kontrollen, och därför är det viktigt att ge garantier mot illvilliga åtgärder från de berörda entreprenörerna. Man kanske vill se till att både jobbet självt och eventuella indata till det är dolda för entreprenörerna, samtidigt som de fortfarande kan utföra den nödvändiga beräkningen. Dessutom skulle man kontrollera att beräkningen utfördes korrekt. I detta dokument handlar det inte om att dölja jobbet eller uppgifterna, men vår huvuduppgift är att se till att arbetet beräknas korrekt. Vi observerar också att inte alla entreprenörer är skadliga; snarare är majoriteten rationell. På så sätt sammanför vår strategi element från kryptografi, liksom spelteori och mekanismdesign. Vi uppnår följande resultat: (1) Vi uppmuntrar alla rationella entreprenörer att utföra det utlagda jobbet korrekt, (2) vi garanterar hög fraktion (t.ex. 99,9 procent) av korrekta resultat även i förekomsten av en relativt stor fraktion (t.ex. 33 procent) av skadliga irrationella entreprenörer i systemet, (3) och vi visar att vårt system uppnår dessa samtidigt som det är nästan lika effektivt som att köra jobbet lokalt (t.ex., med endast 3 procent overhead). En sådan hög korrekthetsgaranti var inte känd för att uppnås med en sådan effektivitet.
I crowdsourcing-inställningen kombinerar Kupcu REF kryptografi och spelteori för att motivera de rationella arbetarna att utföra beräkningen korrekt, och garanterar resultatets kvalitet även i existensen av irrationella arbetare som extensivt lämnar in felaktiga resultat.
1,410,055
Incentivized Outsourced Computation Resistant to Malicious Contractors
{'venue': 'IEEE Transactions on Dependable and Secure Computing', 'journal': 'IEEE Transactions on Dependable and Secure Computing', 'mag_field_of_study': ['Computer Science']}
281
Detta dokument handlar om problemet med disambikering av namn. Med namndisambikering menar vi att särskilja personer med samma namn. Det är ett kritiskt problem i många kunskapshanteringstillämpningar. Trots mycket forskningsarbete har utförts, problemet är fortfarande inte löst och blir ännu allvarligare, särskilt med populariteten av Web 2.0. Tidigare ägde namnet ofta rum på ett övervakat eller oövervakat sätt. Detta dokument ger först en begränsningsbaserad probabilistisk modell för halvövervakad namndisambigering. Vi fokuserar särskilt på att undersöka problemet i ett socialt nätverk för forskare (http://arnetminer.org). Ramverket kombinerar begränsningar och distansundervisning i Euclidean, och gör det möjligt för användaren att förfina disambigeringsresultaten. Experimentella resultat på forskarens sociala nätverk visar att det föreslagna ramverket avsevärt överträffar grundmetoden med hjälp av oövervakad hierarkisk klusteralgoritm.
Duo Zhang, REF föreslog en begränsningsbaserad probabilistisk modell för disambigering av namn med hjälp av halvövervakat lärande.
370,446
A constraint-based probabilistic framework for name disambiguation
{'venue': "CIKM '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
282
Vi introducerar den första helt automatiska, helt semantiska ramen baserad MT utvärdering metrisk, MET, som överträffar alla andra allmänt använda automatiska mått i korrelera med mänsklig bedömning om översättning tillräcklig. Det senaste arbetet på HMEANT, som är en mänsklig metrisk, indikerar att maskinöversättning kan utvärderas bättre via semantiska ramar än andra utvärdering paradigm, kräver endast minimal ansträngning från enspråkiga människor att kommentera och anpassa semantiska ramar i referens- och maskinöversättningar. Vi föreslår en förvånansvärt effektiv Occams rakhyvelautomation av HMEANT som kombinerar vanlig grund semantisk parsering med en enkel maximal viktad bipartitmatchande algoritm för att anpassa semantiska ramar. Matchningskriteriet är baserat på lexikal likhet poängsättning av semantiska roll fyller genom en enkel kontext vektor modell som lätt kan tränas med hjälp av någon allmänt tillgänglig stor enspråkig corpus. Konsekvensnivå korrelationsanalys, enligt standard NIST MetricsMATR protokoll, visar att denna helt automatiserade version av HMEANT uppnår betydligt högre Kendall korrelation med mänskliga lämplighet bedömningar än BLEU, NIST, ME-TEOR, PER, CDER, WER, eller TER. Dessutom visar vi att utförandet av den semantiska ramjusteringen automatiskt faktiskt tenderar att vara precis lika bra som att utföra den manuellt. Trots sin höga prestanda, helt automatiserad MEET kan fortfarande bevara HMEANT's fördelar av enkelhet, representationstransparens och billighet.
Till exempel använder REF en maximal viktad dubbelpartit matchningsalgoritm för att anpassa predikat med en lexicalsimilarity measure för att utvärdera semantic-role korrespondens.
974,899
Fully Automatic Semantic MT Evaluation
{'venue': 'Proceedings of the Seventh Workshop on Statistical Machine Translation', 'journal': None, 'mag_field_of_study': ['Computer Science']}
283
Abstract-Providing effektiv dataaggregation samtidigt bevara dataintegritet är ett utmanande problem i trådlösa sensornätverk forskning. I detta dokument presenterar vi två integritetsbevarande system för aggregering av data för additiva aggregeringsfunktioner. Det första systemet -Cluster-baserad Privat Data Aggregation (CPDA)-levererar klustering protokoll och algebraiska egenskaper polynom. Det har fördelen att medföra mindre kommunikation overhead. Det andra systemet – Slice-Mix-AggRegaTe (SMART) – bygger på skivteknik och den associativa egenskapen hos tillägg. Det har fördelen av att ådra sig mindre beräkning overhead. Målet med vårt arbete är att överbrygga klyftan mellan samverkande datainsamlingar via trådlösa sensornätverk och dataintegritet. Vi bedömer de två systemen genom integritet-bevarande effektivitet, kommunikation overhead, och data aggregering noggrannhet. Vi presenterar simuleringsresultat från våra system och jämför deras prestanda med ett typiskt dataaggregationssystem -TAG, där inget dataskydd tillhandahålls. Resultaten visar effektiviteten och effektiviteten i våra program. Såvitt vi vet är detta papper bland de första om integritetsbevarande dataaggregation i trådlösa sensornätverk.
I REF föreslås två integritetsbevarande system, klusterbaserad integritetsdataaggregation (CPDA) och bit-mix-aggregat (S-MART) för aggregationsfunktionssumman.
10,398,325
PDA: Privacy-Preserving Data Aggregation in Wireless Sensor Networks
{'venue': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
284
I denna artikel, ett symbiotiskt radio (SR) system föreslås för att stödja passivt Internet of Things (IoT), där en backscatter enhet (BD), även kallad IoT-enhet, är parasitisk i en primär överföring. Den primära sändaren (PT) är utformad för att hjälpa både primära och BD-transmissioner, och den primära mottagaren (PR) används för att avkoda informationen från PT samt BD. Symbolperioden för BD-överföring antas antingen vara lika med eller mycket större än den för den primära, vilket resulterar i parasitisk SR (PSR) eller commensal SR (CSR) setup. Vi anser en grundläggande SR-system som består av tre noder: 1) en multiantenna PT; 2) en singel-antenna BD; och 3) en singel-antenna PR. Vi härleder först de uppnåeliga satserna för primär- och BD-överföringar för varje installation. Sedan formulerar vi två överföringsstråleformande optimeringsproblem, d.v.s. problemet med viktad maximering (WSRM) och problemet med överföringseffektminimering (TPM), och löser dessa icke konvexa problem genom att tillämpa SDR-tekniken (semidefinite relaxation). Dessutom föreslås en ny sändningsstråleformningsstruktur för att minska lösningarnas beräkningskomplexitet. Simuleringsresultaten visar att den föreslagna lösningen för CSR-konfiguration möjliggör opportunistisk överföring av BD via energieffektiv passiv backscattering utan någon förlust av spektral effektivitet, genom att korrekt utnyttja den ytterligare signalvägen från BD.
Termen ''symbiotisk radio'' presenterades först i REF, där en backscatter överföring är parasitisk med en primär överföring, och den uppnåeliga hastighet avvägning mellan primär och backscatter transmissioner realiserades genom överföring strålformning.
53,106,802
Symbiotic Radio: A New Communication Paradigm for Passive Internet of Things
{'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
285
Sammanfattning av denna webbsida: Vi anser att problemet med gemensam åtkomst och maktstyrning i ett tätt litet cellnätverk, som innehåller flera interferenslänkar. Målet är att främst maximera antalet tillåtna länkar, och samtidigt minimera sändningskraften. Vi formulerar inträdeskontroll- och kraftstyrningsproblem som ett gemensamt optimeringsproblem, vilket dock är NP-hårdt. Sådana NP-hårda problem kan lösas till en p-norm problem (0 <p < 1) genom att använda correntropy inducerade metrisk. Korrentropin är en ny icke-linjär likhetsåtgärd, som framgångsrikt har använts i den robusta signalbehandling och reservsignalbehandling, särskilt när data innehåller stora avvikelser. Därför föreslår vi i detta arbete en ny korrentropi inducerad gemensam kraft och inträdeskontrollalgoritm (CJPA). För att uppnå en snabbare konvergenshastighet föreslår vi också en adaptiv kärnstorleksmetod, där kärnstorleken bestäms av felet så att konvergenshastigheten blir snabbast under iterationerna. Simuleringsresultat visar att det föreslagna tillvägagångssättet kan uppnå mycket bättre resultat än befintliga arbeten.
Ett gemensamt system för tillträde och maktkontroll föreslogs av Luan m.fl. REF för DSCN, som syftar till att maximera antalet tillåtna anslutningar, samtidigt som överföringseffekten minimeras.
29,522,889
Correntropy induced joint power and admission control algorithm for dense small cell network
{'venue': 'IET Communications', 'journal': 'IET Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
286
Abstract-Vi tar itu med problemet med samverkande konfliktlösning för flerfordons rörelseplanering i scenarier med blandad trafik, där automatiserade och manuellt drivna fordon samexisterar. Vi föreslår en ny lösning baserad på tillgänglighetsanalys, som ger det körbara området för varje samverkande trafikdeltagare. Överlappande körbara områden omfördelas så att varje trafikdeltagare får ett enskilt område för rörelseplanering. Vi fastställer inte någon särskild metod för att förutsäga den framtida utvecklingen av icke-kommunicerande trafikdeltagare. Dessutom är osäkerheten i de inledande staterna för kooperativa fordon, t.ex. på grund av sensorbuller, kan enkelt integreras. En biprodukt av vårt tillvägagångssätt är att samarbetsgrupper automatiskt kan hittas genom att identifiera motstridiga körbara områden; om det inte finns någon konflikt blir samarbetet onödigt. Vi visar omfördelningen av körbara områden med två numeriska exempel. Samarbetande rörelseplanering av olika automatiserade vägfordon är klart överlägsen när det gäller uppnåelig säkerhet och komfort jämfört med beräkning av individuella rörelseplaner. Detta beror på att individuell rörelseplanering är ett speciellt fall av samarbetsplanering när fordon inte kommunicerar. Många lovande metoder för flerfordonsplanering har utvecklats, men att hantera situationer med blandad trafik och osäkerhet är fortfarande ett öppet forskningsområde. Vi föreslår en enhetlig strategi för gemensam konfliktlösning baserad på beräkning av körbara områden där automatiserade och manuellt drivna fordon delar vägen. Vi går först igenom litteratur om specifika tillämpningar som skärningshantering och sammanslagning; efter diskuterar vi prioritetsbaserade, marknadsbaserade och reservationsbaserade tillvägagångssätt. Mycket arbete med samarbetsplanering har ägnats åt vägkorsningar, eftersom detta är hotspots för trafikolyckor. Kollisionsundvikande vid korsningar med hjälp av V2V-kommunikation för samarbete undersöks i [1] med beaktande av modellosäkerhet och kommunikationsförseningar. Colombo m.fl. [2] Lösa schemaläggningsproblem för att säkerställa säkerheten under korsningspassager. En annan forskningslinje är utformningen av samverkande filbyten och sammanslagningsstrategier. I [3] diskuteras hur V2V-kommunikation kan användas för samarbete beslutsfattande: en distribuerad receding horisont kontrollram inrättas för att lösa uppgifter av platuering och kooperativ sammanslagning. Ytterligare körfältsbyte och sammanslagning av kontrollalgoritmer för plutonerna för fordon utvecklas under [4], [5].
Manzinger och Althof REF utvecklar en algoritm för kooperationellt undvikande av kollisioner genom att omfördela körbara regioner rättvist bland de samarbetsvilliga fordonen.
3,455,895
Negotiation of drivable areas of cooperative vehicles for conflict resolution
{'venue': '2017 IEEE 20th International Conference on Intelligent Transportation Systems (ITSC)', 'journal': '2017 IEEE 20th International Conference on Intelligent Transportation Systems (ITSC)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
287
Sammanfattning av denna webbsida: I detta dokument föreslås ett mobilt biologiskt sensorsystem som kan bidra till tidig upptäckt av skogsbränder en av de mest fruktade naturkatastroferna på jorden. Huvudidén som presenteras i denna uppsats är att utnyttja djur med sensorer som mobila biologiska sensorer (MBS). De enheter som används i detta system är djur som är inhemska djur som lever i skogar, sensorer (termo- och strålningssensorer med GPS-funktioner) som mäter temperaturen och överför placeringen av MBS, åtkomstpunkter för trådlös kommunikation och ett centralt datorsystem som klassificerar djurens handlingar. Systemet erbjuder två olika metoder, för det första: åtkomstpunkterna får kontinuerligt uppgifter om djurens placering med hjälp av GPS med vissa tidsintervall och de insamlade uppgifterna klassificeras sedan och kontrolleras för att se om det sker en plötslig förflyttning (panik) av djurgrupperna: denna metod kallas djurbeteendeklassificering (ABC). Den andra metoden kan definieras som termisk detektion (TD): åtkomstpunkterna får temperaturvärdena från MBS-enheterna och skickar data till en central dator för att kontrollera om temperaturerna ändras omedelbart. Detta system kan användas för många andra ändamål än branddetektering, nämligen spårning av djur, tjuvjakt och påvisande av omedelbar djurdöd.
Sahin tog upp djurens roll som biologiska sensorer vid upptäckt av skogsbränder REF.
6,546,632
Animals as Mobile Biological Sensors for Forest Fire Detection
{'venue': 'Sensors', 'journal': 'Sensors', 'mag_field_of_study': ['Computer Science', 'Medicine']}
288
Vi analyserar konvergensen av (stokastisk) lutning nedstigning algoritm för att lära sig en convolutional filter med Rektified Linear Unit (ReLU) aktiveringsfunktion. Vår analys bygger inte på någon specifik form av indatadistributionen och våra bevis använder bara definitionen av ReLU, i motsats till tidigare verk som är begränsade till standard Gaussian input. Vi visar att (stokastisk) lutning nedstigning med slumpmässig initiering kan lära sig det konvolutionella filtret i polynom tid och konvergenshastigheten beror på jämnheten i ingångsfördelningen och närheten av patchar. Såvitt vi vet är detta den första återvinningsgarantin för gradientbaserade algoritmer för konvolutionsfilter på icke-gaussiska ingångsdistributioner. Vår teori motiverar också tvåstegsstrategin i djupa neurala nätverk. Medan vårt fokus är teoretiskt, presenterar vi också experiment som illustrerar våra teoretiska resultat. Djupa konvolutionella neurala nätverk (CNN) har uppnått state-of-the-art prestanda i många tillämpningar såsom datorseende [Krizjevsky et al., 2012], naturligt språk bearbetning [Dauphin et al., 2016] och förstärkning lärande tillämpas i klassiska spel som Go [Silver et al., 2016]. Trots den mycket icke konvexa karaktären av den objektiva funktionen, enkla första ordningen algoritmer som stokastisk lutning nedstigning och dess varianter ofta träna sådana nätverk framgångsrikt. Å andra sidan är framgången med konvolutionella neurala nätverk fortfarande svårfångad ur ett optimeringsperspektiv. När indatadistributionen inte begränsas, befintliga resultat är mestadels negativa, såsom hårdhet att lära sig ett 3-node neurala nätverk [Blum och Rivest, 1989] eller en icke-överlappande convolutional filter [Brutzkus och Globerson, 2017]. Nyligen, Shamir [2016] visade lära sig en enkel ettlager fullt anslutna neurala nätverk är svårt för vissa specifika ingångsdistributioner. Dessa negativa resultat tyder på att, för att förklara den empiriska framgången för SGD för lärande neurala nätverk, krävs starkare antaganden om indatadistributionen. Nyligen, en linje av forskning [Tian, 2017, Brutzkus och Globerson, 2017, Li och Yuan, 2017, Soltanolkotabi, 2017, Zhong et al., 2017 antog input distribution vara standard Gaussian N (0, I) och visade (stokastisk) lutning nedstigning kan återställa neurala nätverk med ReLU aktivering i polynom tid. * Detta arbete görs medan författaren är på Facebook AI Research.
I REF studerades konvergensen mellan gradientbaserade metoder för att lära sig ett konvolutionsfilter.
3,624,410
When is a Convolutional Filter Easy To Learn?
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
289
Ett vanligt sätt att skydda sekretessen för känslig information är att införa ytterligare slumpmässighet, utöver provtagning. Differentiell integritet (DP) ger en strikt ram för att kvantifiera integritetsrisken för sådana förfaranden som gör det möjligt för datasammanfattning släpper, såsom en statistik T. Men i teorin och praxis, strukturen av statistik T ofta inte noggrant analyseras, vilket resulterar i ineffektivt genomförande av DP mekanismer som inför överdriven slumpmässighet för att minimera risken, minska den statistiska nyttan av resultatet. Vi introducerar angränsande utdatautrymme S T av T, och ansluta S T till begreppet känslighet, som styr mängden slumpmässighet som krävs för att skydda integritet. Med hjälp av S T formaliserar vi jämförelsen av K-Norm Mechanisms och härleda den optimala som en funktion av det angränsande utdatautrymmet. Vi använder dessa metoder för att utvidga den objektiva perturberingen och de funktionella mekanismerna till godtyckliga K-mekaniker, och tillämpa dem på logistik och linjär regression, respektive, för att möjliggöra olika privata utgåvor av statistiska resultat. Vi jämför prestandan genom simuleringar, och på en boende prisdata. Våra resultat visar att valet av mekanism påverkar nyttan av produktionen, och vår föreslagna metod erbjuder en betydande förbättring av nyttan för samma risknivå.
REF härleder den optimala mekanismen i liknande bemärkelse, bland klassen K-normmekanismer.
88,517,593
Structure and Sensitivity in Differential Privacy: Comparing K-Norm Mechanisms
{'venue': None, 'journal': 'arXiv: Methodology', 'mag_field_of_study': ['Mathematics']}
290
Vi har utvecklat en beräkningsmetod som räknar frekvenserna av unika k-mers i FASTQformaterade genomdata och använder denna information för att härleda genotyper av kända varianter. FastGT kan upptäcka varianterna i en 30x genom på mindre än 1 timme med vanlig låg kostnad server hårdvara. Den totala konkordansen med genotyperna av två genom av Illuminat "Platinum" är 99,96%, och konkordansen med genotyperna av Illumina HumanOmniExpress är 99,82%. Vår metod ger k-mer databas som kan användas för samtidig genotypning av cirka 30 miljoner enskilda nukleotidvarianter (SNV), inklusive > 23.000 SNV från Y-kromosomen. Källkod för FastGT-programvaran finns på GitHub (https://github.com/bioinfo-ut/GenomeTester4/). Next-generation sequencing (NGS) teknologier används i stor utsträckning för att studera genom variation. Varianter i det mänskliga genomet upptäcks vanligtvis genom att man kartlägger sekvenserade avläsningar och utför sedan genotypanrop [1] [2] [3] [4]. En standard pipeline kräver 40-50 h för att bearbeta ett mänskligt genom med 30x täckning från rå sekvens data till variant samtal på en multi-tråd server. Kartläggning och calling är toppmoderna processer som kräver expertanvändare som känner till många tillgängliga mjukvarualternativ. Det är inte förvånande att olika rörledningar genererar något olika genotypanrop [5] [6] [7] [8] [9]. Lyckligtvis är inkonsekventa genotypanrop endast förknippade med vissa genomiska regioner [10] [11] [12], medan genotypning i de återstående 80-90 % av genomet är robust och pålitlig. Användningen av k-mers (delsträngar av längd k) i genomanalyser har ökat eftersom datorer kan hantera stora volymer av sekvensering data mer effektivt. Till exempel kan fylogenetiska träd av alla kända bakterier lätt byggas med hjälp av k-mers från deras genom DNA [13] [14] [15]. Bakteriestammar kan snabbt identifieras från metagenomiska data genom att söka efter stamspecifika k-mers [16] [17] [18]. K-mers har också använts för att korrigera sekvenseringsfel i råavläsningar [19] [20] [21] [22]. En nyligen publicerad publikation har beskrivit en anpassningsfri SNV anropsmetod som bygger på att räkna frekvensen av k-mers 23. Denna metod omvandlar sekvenser från råa avläsningar till Burrows-Wheeler transform och kallar sedan genotyper genom att räkna med hjälp av en variabel längd unik delsträng som omger varianten. Vi utvecklade en ny metod som erbjuder möjligheten att direkt genotypa kända varianter från NGS data genom att räkna unika k-mers. Metoden använder endast tillförlitliga regioner av genomet och är ungefär 1-2 storleksordningar snabbare än traditionell kartläggning-baserad genotyp detektion. Således är den idealiskt lämpad för en snabb, preliminär analys av en delmängd av markörer innan fullskalig analys är klar. Metoden implementeras i programmeringsspråket C och finns som FastGT-programvarupaket. FastGT är för närvarande begränsat till anrop av tidigare kända genomiska varianter eftersom specifika k-mers måste väljas för alla kända alleler. Därför är det inte en ersättning för traditionell kartläggning och variant calling utan en kompletterande metod som underlättar vissa aspekter av NGS-baserade genomanalyser. FastGT är i själva verket jämförbart med en stor digital microarray som använder NGS data som en ingång. Vår metod är baserad på tre originalkomponenter: (1) proceduren för val av unika k-mers, (2) den anpassade datastrukturen för att lagra och räkna k-mers direkt från en FASTQ-fil, och (3) en maximal sannolikhet metod utformad speciellt för att uppskatta genotyper från k-mer räknar. Sammanställning av databasen med unika k-mer par. Den avgörande komponenten i FastGT är en förkompilerad flat-fil databas av genomiska varianter och motsvarande k-mer par som överlappar med varje variant. Varje bi-allelisk enskild nukleotid variant (SNV) position i genomet täcks av k-mer par, där par bildas
FastGT REF är ännu en annan k-mer-baserad metod för genotypsekvenseringsdata: den är starkt beroende av en förkompilerad databas med bi-alleliska SNV och motsvarande k-mers, som erhållits genom att utsätta k-mers som överlappar kända SNVs för flera filtreringssteg.
3,299,721
FastGT: an alignment-free method for calling common SNVs directly from raw sequencing reads
{'venue': 'Scientific Reports', 'journal': 'Scientific Reports', 'mag_field_of_study': ['Biology', 'Medicine']}
291
Abstract-In the cloud context, prissättning och kapacitetsplanering är två viktiga faktorer för vinsten av infrastruktur-as-a-service (IaaS) leverantörer. I detta dokument undersöks problemet med gemensam prissättning och kapacitetsplanering på IaaS leverantörsmarknad med en uppsättning leverantörer av programvara som en tjänst (SaaS), där varje SaaS leverantör hyr ut virtuella maskiner (VM) från IaaS leverantörer för att tillhandahålla molnbaserade applikationstjänster till sina slutanvändare. Vi studerar två marknadsmodeller, den ena med en monopol IaaS leverantörsmarknad, den andra med flera IaaS-leverantörsmarknad. För den monopolbaserade IaaS-leverantörsmarknaden studerar vi först SaaS-leverantörernas optimala beslut när det gäller mängden slutanvändare som ska beviljas tillstånd och antalet virtuella maskiner som ska hyras, med tanke på det resurspris som tas ut av IaaS-leverantören. Baserat på de bästa svaren från SaaS leverantörer, får vi sedan den optimala lösningen på problemet med gemensam prissättning och kapacitetsplanering för att maximera IaaS leverantörens vinst. Därefter, för marknaden med flera IaaS leverantörer, vi formulerar prissättning och kapacitetsplanering konkurrens bland IaaS leverantörer som en tre-stegs Stackelberg spel. Vi utforskar existensen och unikheten av Nash jämvikt, och härleder de förhållanden under vilka det finns en unik Nash jämvikt. Slutligen utvecklar vi en iterativ algoritm för att uppnå Nash jämvikt.
Tang och Chen REF föreslog en Stackelberg spel formulering för den gemensamma prissättning och kapacitetstilldelning problem i ett scenario med flera IaaS och SaaS leverantörer.
16,620,900
Joint Pricing and Capacity Planning in the IaaS Cloud Market
{'venue': 'IEEE Transactions on Cloud Computing', 'journal': 'IEEE Transactions on Cloud Computing', 'mag_field_of_study': ['Computer Science']}
292
Abstract-In graf-baserade lärande modeller, enheter ofta representeras som hörn i en oriktad graf med viktade kanter som beskriver förhållandet mellan enheter. I många verkliga tillämpningar är dock enheter ofta förknippade med relationer av olika typer och / eller från olika källor, som kan fångas väl av flera oriktade grafer över samma uppsättning hörn. Hur man kan utnyttja sådana flera informationskällor för att göra bättre slutsatser om enheter är fortfarande ett intressant öppet problem. I detta dokument fokuserar vi på problemet med att klunga ihop hörnen baserat på flera grafer i både oövervakade och halvövervakade inställningar. Som ett av våra bidrag föreslår vi Linked Matrix Factorization (LMF) som ett nytt sätt att samla information från flera grafkällor. I LMF är varje graf ungefärlig genom matris factorization med en graf-specifik faktor och en faktor som är gemensam för alla grafer, där den gemensamma faktorn ger funktioner för alla hörn. Experiment på SIAM journaldata visar att (1) vi kan förbättra klusternoggrannheten genom att samla flera informationskällor med flera modeller, och (2) LMF ger överlägsna eller konkurrenskraftiga resultat jämfört med andra grafbaserade klustermetoder.
För sin del, REF ) löser en multipel graf kluster problem där varje graf är ungefärlig genom matris factorization med en graf-specifik faktor och en faktor som är gemensam för alla grafer.
1,608,993
Clustering with Multiple Graphs
{'venue': '2009 Ninth IEEE International Conference on Data Mining', 'journal': '2009 Ninth IEEE International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']}
293
Inlärning omvandling invarianta representationer av visuell data är ett viktigt problem i datorseende. Djupa konvolutionella nätverk har visat anmärkningsvärda resultat för bild- och videoklassificeringsuppgifter. De har dock endast uppnått begränsad framgång i klassificeringen av bilder som genomgår geometriska omvandlingar. I detta arbete presenterar vi en roman Transformation Invariant Graph-baserat nätverk (TIgraNet), som lär sig grafbaserade funktioner som är inneboende invarianta till isometriska omvandlingar såsom rotation och översättning av indatabilder. I synnerhet är bilder representerade som signaler på grafer, som gör det möjligt att ersätta klassisk konvolution och poolning lager i djupa nätverk med grafspektrala konvolution och dynamiska graf pooling lager som tillsammans bidrar till invarians till isometriska transformationer. Våra experiment visar hög prestanda på roterade och översatta bilder från testuppsättningen jämfört med klassiska arkitekturer som är mycket känsliga för transformationer i data. De inneboende variabilitetsegenskaperna i vårt ramverk ger viktiga fördelar, såsom ökad relevans för datavariabilitet och ihållande prestanda med begränsade träningsset.
REF lär sig grafbaserade funktioner på bilder som är invarianta till isometriska omvandlingar.
906,304
Graph-based Isometry Invariant Representation Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
294
Abstract-existerande banplanering algoritmer kan hitta fysiskt genomförbara, kortaste och energieffektiva vägar för mobila robotar som navigerar på ojämn terräng. Kortaste vägar i ojämn terräng är dock ofta energiineffektiva medan energioptimala stigar vanligtvis tar lång tid att passera. På grund av tids- och energibegränsningar för mobila robotar kanske dessa kortaste och energioptimala vägar inte är tillämpliga. Vi föreslår en multiobjektiv vägplanerare som kan hitta Pareto-optimala lösningar när det gäller väglängd och energiförbrukning. Det är baserat på NAMOA* sökalgoritm som använder en föreslagen monoton heuristisk kostnadsfunktion. Simuleringsresultaten visar att icke-dominerade sökvägsalternativ som hittas av den föreslagna sökvägen planeraren kan vara mycket användbara i många realworld-applikationer.
Arbetet i REF föreslår en multiobjektiv vägsökare som kan upptäcka Pareto-optimala lösningar avseende energiförbrukning och vägens längd.
35,989,110
Multiobjective path planning on uneven terrains based on NAMOA*
{'venue': '2016 IEEE International Symposium on Circuits and Systems (ISCAS)', 'journal': '2016 IEEE International Symposium on Circuits and Systems (ISCAS)', 'mag_field_of_study': ['Computer Science']}
295
Detta dokument presenterar en medhjälpande dödgående navigationsstruktur och signalbehandlingsalgoritmer för självlokalisering av en autonom mobil enhet genom sammansmältning av dödräkning och mätningar av WiFi-signalstyrka. Wifi- och tröghetsnavigeringssystem (INS) används för positionsbestämning och attitydbestämning i ett stort antal tillämpningar. Under de senaste åren har ett antal lågkostnadssensorer blivit tillgängliga. Även om de uppvisar stora fel, kan Wi-Fi mätningar användas för att korrigera avdrift försvaga navigeringen baserat på denna teknik. Å andra sidan kan INS-sensorer interagera med WiFi-positioneringssystemet eftersom de ger hög noggrannhet realtidsnavigering. En struktur baserad på ett Kalmanfilter och ett partikelfilter föreslås. Den sammanställer den heterogena information som kommer från dessa två oberoende tekniker. Slutligen utvärderas fördelarna med den föreslagna arkitekturen och jämförs med de rena Wi-Fi- och INS-positioneringssystemen.
Referensreferensreferensen föreslår först ett partikelfilter som sammanställer tröghetssignaler och WiFi-positionering.
28,050,779
Advanced Integration of WiFi and Inertial Navigation Systems for Indoor Mobile Positioning
{'venue': None, 'journal': 'EURASIP Journal on Advances in Signal Processing', 'mag_field_of_study': ['Computer Science']}
296
Spatiotemporal prognoser har olika tillämpningar inom neurovetenskap, klimat och transport domän. Trafikprognoser är ett kanoniskt exempel på sådan inlärningsuppgift. Uppgiften är utmanande på grund av 1) komplext rumsligt beroende av vägnät, 2) icke-linjär temporal dynamik med förändrade vägförhållanden och 3) inneboende svårigheter med långsiktiga prognoser. För att ta itu med dessa utmaningar föreslår vi att man modellerar trafikflödet som en diffusionsprocess på en riktad graf och introducerar Diffusion Convolutional Recurrent Neural Network (DCRNN), en djuplärande ram för trafikprognoser som omfattar både rumsligt och temporalt beroende i trafikflödet. Specifikt fångar DCRNN det rumsliga beroendet med hjälp av dubbelriktade slumpmässiga promenader på grafen, och tidsberoendet med hjälp av encoder-dekoder arkitektur med schemalagd provtagning. Vi utvärderar ramverket för två storskaliga vägnätsdata i verkligheten och observerar en konsekvent förbättring på 12 % -15 % jämfört med de senaste baslinjerna. Publicerad som konferensartikel på ICLR 2018 trafikdata. Senast har djupgående inlärningsmodeller för trafikprognoser utvecklats i Lv et al. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. (2017b), men utan hänsyn till den rumsliga strukturen. Wu & Tan (2016) och Ma et al. (2017) modellera den rumsliga korrelationen med konvolutionella neurala nätverk (CNN), men den rumsliga strukturen finns i det euklideiska utrymmet (t.ex. 2D-avbildningar). Bruna m.fl. (2014), Defferrard m.fl. (2016) studerade grafkonvolution, men endast för oriktade grafer. I detta arbete representerar vi de parvisa rumsliga korrelationerna mellan trafiksensorer med hjälp av en riktad graf vars noder är sensorer och kantvikter betecknar närheten mellan sensorparen mätt med vägnätets avstånd. Vi modellerar dynamiken i trafikflödet som en diffusionsprocess och föreslår diffusionskonvolution för att fånga upp det rumsliga beroendet. Vi föreslår vidare Diffusion Convolutional Recurrent Neural Network (DCRNN) som integrerar diffusionskonvolution, sekvens till sekvensarkitektur och schemalagd provtagningsteknik. När DCRNN utvärderas på verkliga trafikdata, överträffar det konsekvent de senaste trafikprognoserna med stor marginal. Sammanfattning:
Matrisen multiplikation i GRU ersätts av diffusion convolution drift på trafiknätet vid varje tidpunkt steg REF.
3,508,727
Diffusion Convolutional Recurrent Neural Network: Data-Driven Traffic Forecasting
{'venue': 'ICLR', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
297
ABSTRACT Trådlösa sensornätverk (WSN) kommer att integreras i det framtida Internet som en av komponenterna i sakernas Internet, och kommer att bli globalt adresserbara av alla enheter som är anslutna till Internet. Trots den stora potentialen i denna integration, medför det också nya hot, såsom exponering av sensornoder för attacker från Internet. I detta sammanhang måste lätta autentiserings- och nyckelavtalsprotokoll finnas på plats för att möjliggöra säker kommunikation från början till slut. Nyligen, Amin et al. föreslog ett protokoll om ömsesidig autentisering med tre faktorer för WSN. Men vi identifierade flera brister i deras protokoll. Vi fann att deras protokoll lider av smart kort förlust attack där användarens identitet och lösenord kan gissas med hjälp av offline brute force tekniker. Dessutom lider protokollet av kända sessionsspecifika tillfälliga informationsattack, vilket leder till avslöjande av sessionsnycklar i andra sessioner. Dessutom är protokollet sårbart för spårning attack och misslyckas med att uppfylla användaren ospårbarhet. För att åtgärda dessa brister presenterar vi ett lättviktigt och säkert användarautentiseringsprotokoll baserat på Rabin cryptosystemet, som har egenskapen beräkningsasymmetri. Vi utför en formell verifiering av vårt föreslagna protokoll med hjälp av ProVerif för att visa att vårt system uppfyller de erforderliga säkerhetsegenskaperna. Vi presenterar också en omfattande heuristisk säkerhetsanalys för att visa att vårt protokoll är säkert mot alla möjliga attacker och ger de önskade säkerhetsfunktionerna. De resultat vi fick visar att vårt nya protokoll är en säker och lätt lösning för autentisering och nyckelavtal för Internetintegrerade WSNs. INDEX TERMS Autentisering, biometriska kännetecken, nyckelhantering, integritet, Rabin kryptosystem, smartkort, trådlösa sensornätverk.
Jiang m.fl. REF föreslog det Rabin cryptosystembaserade autentiserings- och nyckelavtalsprotokollet.
3,343,893
Lightweight Three-Factor Authentication and Key Agreement Protocol for Internet-Integrated Wireless Sensor Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
298
Abstract-Dramatic mobil datatrafik tillväxt har sporrat en tät utbyggnad av små cell basstationer (SCBS). Små celler ökar spektrumeffektiviteten och ökar därmed kapaciteten i mobila nät. Även om SCBS förbrukar mycket mindre effekt än makro BS (MBS) gör, är den totala effektförbrukningen hos ett stort antal SCBS fenomenal. När tekniken för energiupptagning går framåt kan basstationer (BS) drivas med grön energi för att minska energiförbrukningen i on-grid. För mobila nät med hög BS-täthet är balansering av trafikbelastning avgörande för att kunna utnyttja kapaciteten hos SCBS. För att fullt ut utnyttja avverkad energi, är det önskvärt att införliva den gröna energiutnyttjande som en prestandamått i trafik belastning balansering strategier. I detta dokument har vi föreslagit ett ramverk för balansering av trafikbelastningen som strävar efter en balans mellan nätverktyg, t.ex. den genomsnittliga latensen i trafiken och det gröna energiutnyttjandet. Olika egenskaper hos den föreslagna ramen har härletts. Genom att utnyttja den programvarudefinierade radioaccessnätverksarkitekturen genomförs det föreslagna systemet som en praktiskt taget distribuerad algoritm, vilket avsevärt minskar kommunikationsomkostnaderna mellan användare och BS. Simuleringsresultaten visar att det föreslagna ramverket för balansering av trafikbelastningen möjliggör en justerbar avvägning mellan strömförbrukningen i drift och den genomsnittliga latensen i trafiken, och sparar en betydande mängd kraft i drift, t.ex. 30 %, till en kostnad av endast en liten ökning, t.ex. 8 %, av den genomsnittliga latensen i trafiken. Index Terms-Green kommunikation, HetNet, förnybar energi, programvarudefinierade radionät, trafik belastning balansering.
Ur detta perspektiv, i REF, Han och Ansari presenterade en praktiskt taget distribuerad algoritm som heter vGALA för att nå en kompromiss mellan nätverksverktyg och grön energi användning i programvarudefinierade radionät som drivs av hybrida energikällor.
1,065,426
A traffic load balancing framework for software-defined radio access networks powered by hybrid energy sources
{'venue': 'TNET', 'journal': None, 'mag_field_of_study': ['Computer Science']}
299
Ett svar på en fråga har en väldefinierad härstamning uttryck (alternativt kallas hur-bevisning) som förklarar hur svaret härleddes. Det senaste arbetet har också visat hur man beräknar ett icke-svars härstamning till en fråga. Orsaken till ett svar eller icke-svar är emellertid en mer subtil uppfattning och består i allmänhet endast av ett fragment av härstamningen. I detta dokument anpassar vi Halpern, Pearl och Chocklers senaste definitioner av kausalitet och ansvar för att definiera orsakerna till svar och icke-svar på frågor, och deras grad av ansvar. Ansvaret fångar uppfattningen om graden av orsakssamband och tjänar till att rangordna potentiellt många orsaker genom deras relativa bidrag till effekten. Sedan studerar vi komplexiteten i datorernas orsaker och ansvar för konjunktiva frågor. Det är känt att datororsakerna är NP-komplett i allmänhet. Vårt första huvudresultat visar att alla orsaker till konjunktiva frågor kan beräknas av en relationell fråga som kan innebära negation. Därför kan orsakssambandet beräknas i PTIME, och mycket effektivt så. Därefter studerar vi datoransvar. Här bevisar vi att komplexiteten beror på den konjunktiva frågan och visar en dikotomi mellan PTIME och NP-fullständiga fall. För PTIME-fallen ger vi en icke-trivial algoritm, som består av en minskning till maximalflödesberäkningsproblem. Slutligen bevisar vi att även när det är i PTIME är ansvaret fullständigt för LOGSPACE, vilket innebär att det, till skillnad från orsakssamband, inte kan beräknas genom en relationsfråga.
Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF studerar begreppen kausalitet och ansvar för exempelbaserade förklaringar för data som finns eller saknas i ett konjunktivt frågeresultat.
11,637,388
The Complexity of Causality and Responsibility for Query Answers and non-Answers
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
300
Abstrakt. Under de senaste åren har paradigmet för komponentbaserad programvaruteknik etablerats i byggandet av komplexa uppdragskritiska system. På grund av denna trend finns det ett praktiskt behov av tekniker som utvärderar kritiska egenskaper (t.ex. säkerhet, tillförlitlighet, tillgänglighet eller prestanda) hos dessa system. I det här dokumentet går vi igenom flera tekniker på hög nivå för utvärdering av säkerhetsegenskaper för komponentbaserade system och föreslår en ny utvärderingsmodell (State Event Fault Trees) som förlänger säkerhetsanalysen mot en lägre abstraktionsnivå. Denna modell har en state-event semantik och stark inkapsling, vilket är särskilt användbart för utvärdering av komponentbaserade programvarusystem. Slutligen jämför vi teknikerna och ger förslag på deras kombinerade användning.
Grunske m.fl. REF presenterar en metod för modellbaserad faroanalys för komponentbaserade programvarusystem baserade på State Event-felträd.
9,370,124
Model-driven safety evaluation with state-event-based component failure annotations
{'venue': 'CBSE, Lecture Notes in Computer Science 3489 (2005', 'journal': None, 'mag_field_of_study': ['Computer Science']}
301
Abstract-Energiförbrukningen på grund av input-output pins är en väsentlig del av den totala chipförbrukningen. För att minska denna energi, presenterar detta arbete arbetszonkodning (WZE) metod för att koda en extern adressbuss, baserat på antagandet att program gynnar några arbetszoner av deras adressutrymme i varje ögonblick. I sådana fall identifierar metoden dessa zoner och skickar genom bussen endast motvikt till denna hänvisning med avseende på den föregående hänvisningen till den zonen, tillsammans med en identifierare för den nuvarande arbetszonen. Detta kombineras med en enhot-kodning för offset. Flera förbättringar av denna grundläggande strategi beskrivs också. Metoden har tillämpats på flera adressströmmar, uppdelade i endast instruktion, data-only, och instruktioner-data spår, för att utvärdera effekten på separata och delade adressbussar. Dessutom utvärderas effekten av instruktioner och datacache. När det gäller fall utan gömmor är det föreslagna systemet särskilt fördelaktigt för dataadress och delade bussar, vilket är de fall där andra koder är mindre effektiva. Å andra sidan, för fallet med cacher det bästa systemet för instruktion-enbart och data-endast spår är WZE, medan för instruktion-data spår det är antingen WZE eller buss-invert med fyra grupper (beroende på energin overhead av dessa tekniker). Index Terms-Adress buss, kodning för låg effekt, låg effekt, mikroprocessor, input-output energi.
Mussol m.fl. föreslog en teknik för arbetszonskodning (WZE) REF, baserad på principen om lokalitet för adresser på bussen.
14,473,884
Working-zone encoding for reducing the energy in microprocessor address buses
{'venue': 'IEEE Trans. VLSI Syst.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
302