src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Neurovetenskap och artificiell intelligens (AI) har en lång och sammanflätad historia. På senare tid har dock kommunikation och samarbete mellan de två områdena blivit mindre vanligt förekommande. I den här artikeln hävdar vi att bättre förståelse av biologiska hjärnor kan spela en viktig roll när det gäller att bygga intelligenta maskiner. Vi undersöker historiska interaktioner mellan AI och neurovetenskap fält och betonar aktuella framsteg i AI som har inspirerats av studien av neural beräkning i människor och andra djur. Vi avslutar med att lyfta fram gemensamma teman som kan vara avgörande för framtida forskning inom båda områdena. Under de senaste åren har snabba framsteg gjorts inom de relaterade områdena neurovetenskap och artificiell intelligens (AI). I början av dataåldern var arbetet med AI oupplösligt sammanflätat med neurovetenskap och psykologi, och många av de tidiga pionjärerna strövade båda områdena, med samarbeten mellan dessa discipliner som visade sig vara mycket produktiva (Churchland och Sejnowski, 1988; Hebb, 1949; Hinton et al., 1986; Hopfield, 1982; McCulloch och Pitts, 1943, Turing, 1950). Men på senare tid har samspelet blivit mycket mindre vanligt, eftersom båda ämnena har vuxit enormt i komplexitet och disciplinära gränser har befästs. I denna översyn argumenterar vi för den kritiska och pågående betydelsen av neurovetenskap för att generera idéer som kommer att accelerera och vägleda AI-forskning (se Hassabis kommentar i Brooks et al., 2012). Vi börjar med antagandet att bygga mänsklig nivå allmän AI (eller "Turing-powerful" intelligenta system; Turing, 1936) är en skrämmande uppgift, eftersom sökområdet för möjliga lösningar är vidsträckt och sannolikt endast mycket glest befolkad. Vi hävdar därför att detta understryker nyttan av att granska den mänskliga hjärnans inre funktioner - det enda befintliga beviset för att en sådan intelligens till och med är möjlig. Studera djur kognition och dess neural implementation har också en viktig roll att spela, eftersom det kan ge ett fönster in i olika viktiga aspekter av högre nivå allmän intelligens. Fördelarna med att utveckla AI att noggrant undersöka biologisk intelligens är tvåfaldiga. För det första ger neurovetenskapen en rik inspirationskälla för nya typer av algoritmer och arkitekturer, oberoende av och komplement till de matematiska och logikbaserade metoder och idéer som till stor del har dominerat traditionella metoder för AI. Till exempel, om en ny aspekt av biologisk beräkning visade sig vara avgörande för att stödja en kognitiv funktion, då skulle vi betrakta det som en utmärkt kandidat för integrering i artificiella system. För det andra kan neurovetenskap ge validering av AI-tekniker som redan finns. Om en känd algoritm senare visar sig vara implementerad i hjärnan, då är det ett starkt stöd för dess trovärdighet som en integrerad komponent i ett övergripande allmänt intelligenssystem. Sådana ledtrådar kan vara avgörande för ett långsiktigt forskningsprogram när man bestämmer var man ska fördela resurser mest produktivt. Till exempel, om en algoritm inte helt uppnår den prestandanivå som krävs eller förväntas, men vi observerar att det är kärnan i hjärnans funktion, då kan vi anta att fördubblade tekniska insatser inriktade på att få det att fungera i artificiella system är sannolikt att löna sig. Naturligtvis behöver vi från ett praktiskt perspektiv för att bygga upp ett AI-system inte på ett slaviskt sätt se till att man följer den biologiska rimligheten. Ur ett ingenjörsperspektiv är det som fungerar i slutändan allt som betyder något. För våra syften är alltså biologisk rimlighet en vägledning, inte ett strikt krav. Vad vi är intresserade av är en system neuroscience-nivå förståelse av hjärnan, nämligen algoritmer, arkitekturer, funktioner, och representationer som den använder. Detta motsvarar ungefär de två översta nivåerna av de tre nivåer av analys som Marr berömda anges krävs för att förstå alla komplexa biologiska system (Marr och Poggio, 1976) : målen i systemet (beräkningsnivån) och processen och beräkningar som inser detta mål (den algoritmiska nivån). De exakta mekanismer genom vilka detta fysiskt realiseras i ett biologiskt substrat är mindre relevanta här (genomförandenivån). Observera att det är här vår inställning till neuroscience-inspirerad AI skiljer sig från andra initiativ, såsom Blue Brain Project (Markram, 2006) eller området neuromorphic computing systems (Esser et al., 2016), som försöker att nära efterlikna eller direkt vända ingenjör specifika neurala kretsar (om än med olika mål i åtanke). Genom att fokusera på beräknings- och algoritmnivåerna får vi överförbara insikter i generella mekanismer för hjärnfunktion, samtidigt som vi lämnar utrymme för att tillgodose de distinkta möjligheter och utmaningar som uppstår när vi bygger intelligenta maskiner i Silico. Följande avsnitt packar upp dessa punkter genom att beakta det förflutna, nuet och framtiden för AI-neuroscience-gränssnittet. Innan vi börjar erbjuder vi ett klargörande. I hela denna artikel använder vi termerna "neuroscience" och "AI". Vi använder dessa termer i vidaste möjliga bemärkelse. När vi säger neurovetenskap, vi menar att inkludera alla fält som är involverade i studien av hjärnan, de beteenden som den genererar, och de mekanismer genom vilka den gör det, inklusive kognitiv neurovetenskap, system neurovetenskap och psykologi. När vi säger AI menar vi arbete inom maskininlärning, statistik och AI-forskning som syftar till att bygga intelligenta maskiner (Legg och Hutter, 2007). Vi börjar med att överväga ursprunget till två områden som är avgörande för aktuell AI-forskning, djupt lärande och förstärkande lärande, som båda tog rot i idéer från neurovetenskap. Vi vänder oss sedan till det aktuella läget i AI-forskningen och noterar många fall där inspiration har dragits (ibland utan uttryckligt erkännande) från begrepp och rön inom neurovetenskap. I detta avsnitt betonar vi särskilt fall där vi har kombinerat djupt lärande med andra metoder från hela maskininlärning, såsom förstärkning lärande, Monte Carlo trädsökning (Silver et al., 2016) eller tekniker som innebär ett externt innehåll-adresserbart minne. Nästa, vi överväger potentialen för neurovetenskap för att stödja framtida AI-forskning, tittar på både de mest sannolika forskningsutmaningar och några framväxande neurovetenskap-inspirerade AI-tekniker. Medan vårt huvudsakliga fokus kommer att vara på potentialen för neurovetenskap för att gynna AI, kommer vår sista avsnitt kortfattat överväga hur AI kan vara till hjälp för neurovetenskap och den bredare potentialen för synergistiska interaktioner mellan dessa två områden. Som beskrivs i ett antal senaste recensioner, AI har revolutionerats under de senaste åren genom dramatiska framsteg i neurala nätverk, eller "" djup inlärning, "" metoder (LeCun et al., 2015; Schmidhuber, 2014). Som monikern ''neural nätverk'' kan antyda, ursprunget till dessa AI-metoder ligger direkt i neurovetenskap. På 1940-talet, undersökningar av neural beräkning började med byggandet av konstgjorda neurala nätverk som kunde beräkna logiska funktioner (McCulloch och Pitts, 1943). Inte långt därefter, andra föreslagna mekanismer genom vilka nätverk av neuroner kan lära sig stegvis via övervakning feedback (Rosenblatt, 1958) eller effektivt koda miljöstatistik på ett oövervakat sätt (Hebb, 1949). Dessa mekanismer öppnade upp området artificiell neurala nätverk forskning, och de fortsätter att utgöra grunden för samtida forskning om djupt lärande (Schmidhuber, 2014). Inte långt efter detta banbrytande arbete, kunde utvecklingen av backpropagation algoritmen lära sig att inträffa i nätverk som består av flera lager (Rumelhart et al., 1985; Werbos, 1974). I synnerhet, konsekvenserna av denna metod för att förstå intelligens, inklusive AI, först uppskattades av en grupp neuroforskare och kognitiva forskare, arbetar under fanan av parallell distribuerad bearbetning (PDP). Vid den tiden var de flesta AI-forskningen fokuserad på att bygga logiska bearbetningssystem baserade på seriell beräkning, ett förhållningssätt inspirerat delvis av föreställningen att mänsklig intelligens innebär manipulering av symboliska representationer (Haugeland, 1985). Men det fanns en växande känsla i vissa kretsar att rent symboliska metoder kan vara alltför sköra och oflexibla för att lösa komplexa verkliga problem av det slag som människor rutinmässigt hanterar. Istället tycktes en växande kunskapsbas om hjärnan peka i en helt annan riktning och belysa rollen av stokastisk och mycket parallelliserad informationsbearbetning. Baserat på detta föreslog PDP-rörelsen att mänsklig kognition och beteende uppstår från dynamiska, distribuerade interaktioner inom nätverk av enkla neuronliknande processenheter, interaktioner avstämda genom inlärningsförfaranden som justerar systemparametrar för att minimera fel eller maximera belöningen. Även om PDP metoden först tillämpades på relativt småskaliga problem, visade det slående framgång i att redovisa ett brett spektrum av mänskliga beteenden (Hinton et al., 1986). Längs vägen introducerade PDP-forskningen en mångfald av idéer som har haft ett bestående inflytande på AI-forskningen. Till exempel, aktuella maskinöversättning forskning utnyttjar uppfattningen att ord och meningar kan representeras på ett distribuerat sätt (dvs. som vektorer) (LeCun et al., 2015), en princip som redan var inrotad i tidiga PDP-inspirerade modeller av mening bearbetning (St. John och McClelland, 1990). Baserat på PDP rörelsens vädjan till biologisk beräkning, nuvarande toppmoderna konvolutionella neurala nätverk (CNNs) innehåller flera kanoniska kännetecken för neural beräkning, inklusive icke-linjär transduktion, divisiv normalisering, och maximal baserad poolning av ingångar. Dessa operationer var direkt inspirerade av encellsinspelningar från däggdjurens visuella cortex som avslöjade hur visuell ingång filtreras och poolas i enkla och komplexa celler i området V1 (Hubel och Wiesel, 1959). Dessutom, nuvarande nätverk arkitekturer replikera den hierarkiska organisationen av däggdjur kortikala system, med både konvergerande och divergerande informationsflöde i på varandra följande, häckade bearbetning lager (Krizjevsky et al., 2012; LeCun et al., 1989; Riesenhuber och Poggio, 1999; Serre et al., 2007), efter idéer först avancerade i tidiga neurala nätverk modeller av visuell bearbetning (Fukushima, 1980). I både biologiska och artificiella system omvandlar på varandra följande icke-linjära beräkningar rå visuell input till en alltmer komplex uppsättning funktioner, vilket tillåter objektigenkänning som är invarianta till omvandlingar av pose, belysning, eller skala. När området för djupinlärning utvecklades ur PDP-forskningen till ett kärnområde inom AI, stärktes det av nya idéer, såsom utvecklingen av nätverk för djup tro (Hinton et al., 2006) och införandet av stora datauppsättningar inspirerade av forskning om mänskligt språk (Deng et al., 2009). Under denna period fortsatte den att hämta viktiga idéer från neurovetenskapen. Till exempel, biologiska överväganden informerade utvecklingen av framgångsrika legaliseringsprogram som stöder generalisering utöver utbildningsdata. Ett sådant system, i vilket endast en undergrupp av enheter deltar i behandlingen av ett givet utbildningsexempel ("dropout"), motiverades av den stokasticitet som är inneboende i biologiska system befolkade av neuroner som brinner med Poisson-liknande statistik (Hinton et al., 2012). Här och på annat håll har neurovetenskap gett initial vägledning mot arkitektoniska och algoritmiska begränsningar som leder till framgångsrika neurala nätverksapplikationer för AI. Vid sidan av sin viktiga roll i utvecklingen av fördjupat lärande har neurovetenskapen också bidragit till att bygga upp en andra pelare av samtida AI, vilket stimulerar framväxten av området för förstärkande lärande (RL). RL-metoder tar upp problemet med hur man maximerar framtida belöningar genom att kartlägga tillstånd i miljön till åtgärder och är bland de mest använda verktygen i AI-forskning (Sutton och Barto, 1998 Neuron Review inspirerad av forskning om djurinlärning. I synnerhet, utvecklingen av temporal-skillnad (TD) metoder, en kritisk komponent i många RL modeller, var oupplösligt sammanflätad med forskning om djurs beteende i konditionering experiment. TD-metoder är realtidsmodeller som lär sig av skillnader mellan tidsbundna på varandra följande förutsägelser, snarare än att behöva vänta tills den faktiska belöningen levereras. Av särskild betydelse var en effekt som kallas andra ordningen konditionering, där affektiv betydelse ges en konditionerad stimulans (CS) genom association med en annan CS snarare än direkt via association med den okonditionerade stimulans (Sutton och Barto, 1981). TD-inlärning ger en naturlig förklaring till andra ordningens konditionering och har faktiskt fortsatt att förklara ett mycket bredare spektrum av fynd från neurovetenskap, som vi diskuterar nedan. Här, som i fallet med djupt lärande, undersökningar initialt inspirerade av observationer från neurovetenskap ledde till ytterligare utveckling som starkt har format inriktningen av AI-forskning. Från deras neuroscience-informerade ursprung, TD-metoder och relaterade tekniker har gått vidare för att leverera kärntekniken för senaste framsteg i AI, allt från robotisk kontroll (Hafner och Riedmiller, 2011) till expertspel i backgammon (Tesauro, 1995) och Go (Silver et al., 2016). När man läser den samtida AI-litteraturen får man intrycket att det tidigare engagemanget för neurovetenskap har minskat. Men om man skrapar på ytan, kan man avslöja många fall där den senaste tidens utveckling har inspirerats och vägletts av neurovetenskapliga överväganden. Här tittar vi på fyra specifika exempel. Uppmärksamhet Hjärnan lär sig inte genom att implementera en enda global optimeringsprincip inom ett enhetligt och odifferentierat neuralt nätverk (Marblestone et al., 2016). I stället är biologiska hjärnor modulära, med distinkta men interagerande delsystem som ligger till grund för viktiga funktioner som minne, språk och kognitiv kontroll (Anderson m.fl., 2004; Sallice, 1988). Denna insikt från neurovetenskap har importerats, ofta på ett outtalat sätt, till många områden av nuvarande AI. Ett belysande exempel är den senaste tidens AI arbete på uppmärksamhet. Fram till ganska nyligen har de flesta CNN-modeller arbetat direkt på hela bilder eller videoramar, med samma prioritet ges till alla bild pixlar i det tidigaste skedet av bearbetning. Det primära visuella systemet fungerar annorlunda. Snarare än att bearbeta all input i parallell, visuell uppmärksamhet skiftar strategiskt mellan platser och objekt, centrerar bearbetning resurser och representationskoordinater på en serie regioner i sin tur (Koch och Ullman, 1985; Moore och Zirnsak, 2017; Posner och Petersen, 1990). Detaljerade neurocomputational modeller har visat hur denna bitmeal tillvägagångssätt gynnar beteende, genom att prioritera och isolera den information som är relevant vid varje given tidpunkt (Olshausen et al., 1993; Salinas och Abbott, 1997). Som sådan, uppmärksamhetsmekanismer har varit en källa till inspiration för AI-arkitekturer som tar ''glimpses'' av inmatningsbilden vid varje steg, uppdatera interna tillstånd representationer, och sedan välja nästa plats att ta prov (Larochelle och Hinton, 2010; Mnih et al., 2014) (Figur 1A ). Ett sådant nätverk kunde använda denna selektiva uppmärksamhetsmekanism för att ignorera irrelevanta objekt i en scen, så att det kan utföra väl i utmanande objekt klassificering uppgifter i närvaro av skräp (Mnih et al., 2014). Dessutom gjorde uppmärksamhetsmekanismen det möjligt för beräkningskostnaden (t.ex. antal nätverksparametrar) att skala gynnsamt med storleken på indatabilden. Utökningar av detta tillvägagångssätt visades senare att producera imponerande prestanda vid svåra multi-objekt erkännande uppgifter, överträffa konventionella CNNs som behandlar hela bilden, både när det gäller noggrannhet och beräkningseffektivitet (Ba et al., 2015), samt förbättra bild-till-kaptionsgenerering (Xu et al., 2015). Även om uppmärksamhet vanligtvis ses som en orienteringsmekanism för perception, kan dess ""spotlight"" också fokuseras internt, mot innehållet i minnet. Denna idé, en nyligen fokuserad i neurovetenskap studier (Sommerfield et al., 2006), har också inspirerat arbete i AI. I vissa arkitekturer har uppmärksamhetsmekanismer använts för att välja information som ska läsas ut från nätverkets interna minne. Detta har bidragit till att ge nya framgångar i maskinöversättning (Bahdanau et al., 2014) och ledde till viktiga framsteg på minne och resonemang uppgifter. Dessa arkitekturer erbjuder en ny implementering av innehåll-adresser hämtning, som i sig var ett koncept som ursprungligen infördes till AI från neurovetenskap (Hopfield, 1982). Ytterligare ett område av AI där uppmärksamhetsmekanismer nyligen har visat sig användbara fokuserar på generativa modeller, system som lär sig att syntetisera eller ''imagine'' bilder (eller andra typer av data) som efterliknar strukturen av exempel som presenteras under utbildningen. Djupa generativa modeller (dvs, generativa modeller implementeras som flerskiktade neurala nätverk) har nyligen visat slående framgångar i att producera syntetiska utgångar som fångar form och struktur av verkliga visuella scener genom införlivandet av uppmärksamhet-liknande mekanismer (Hong et al., 2015; Reed et al., 2016). Till exempel, i en state-of-the-art generative modell som kallas Draw, uppmärksamhet gör det möjligt för systemet att bygga upp en bild gradvis, som tar hand om en del av en ''mental canvas'' i taget (Gregor et al., 2015). Episodiskt minne Ett kanoniskt tema inom neurovetenskap är att intelligent beteende bygger på flera minnessystem (Tulving, 1985). Dessa kommer att omfatta inte bara förstärkningsbaserade mekanismer, som gör det möjligt att lära sig värdet av stimuli och åtgärder stegvis och genom upprepade erfarenheter, utan också exempelbaserade mekanismer, som gör det möjligt att snabbt koda erfarenheter (i "ett skott") i en innehållsadresserad butik (Gallistel och King, 2009 ). Den senare formen av minne, känd som episodic minne (Tulving, 2002), är oftast associerad med kretsar i den mediala temporal loben, framträdande inklusive hippocampus (Squire et al., 2004). Ett nyligen genombrott i AI har varit den framgångsrika integrationen av RL med djupt lärande Silver et al., 2016). Till exempel, den djupa Q-nätverk (DQN) uppvisar expertspel på Atari 2600 videospel genom att lära sig att omvandla en vektor av bild pixlar till en policy för att välja åtgärder (t.ex. joystick rörelser). En viktig ingrediens i DQN är ''erfarenhet replay'', där nätverket lagrar en delmängd av träningsdata på ett instansbaserat sätt, och sedan ''replays'' det offline, lära sig på nytt från framgångar eller misslyckanden som inträffat i det förflutna. Erfarenhet replay är avgörande för att maximera dataeffektivitet, undvika neuron 95, juli 19, 2017 247 Neuron Review destabiliserande effekter av lärande från på varandra följande korrelerade erfarenheter, och gör det möjligt för nätverket att lära sig en livskraftig värdefunktion även i komplexa, mycket strukturerade sekventiella miljöer som videospel. Kritiskt, erfarenhet replay var direkt inspirerad av teorier som försöker förstå hur flera minnessystem i däggdjurshjärnan kan interagera. Enligt en framträdande uppfattning stöds djurens lärande av parallella eller "kompletterande" inlärningssystem i hippocampus och neokortex McClelland m.fl., 1995). Hippocampus verkar för att koda ny information efter en enstaka exponering (enshot learning), men denna information konsolideras gradvis till neokortex i sömn eller viloperioder som interleaved med perioder av aktivitet. Denna konsolidering åtföljs av repris i hippocampus och neokortex, vilket ses som ett återinförande av de strukturerade mönster av neural aktivitet som åtföljde inlärningshändelsen (O'Neill et al., 2010; Skaggs och McNaughton, 1996) (Figur 1B ). Denna teori föreslogs ursprungligen som en lösning på det välkända problemet att i konventionella neurala nätverk, korrelerad exponering för sekventiella aktivitetsinställningar leder till ömsesidig interferens mellan politik, vilket resulterar i katastrofal glömska av en uppgift som en ny är (Mnih et al., 2014). Med tanke på en ingångsbild (x t ) och foveal plats (l t À 1 ) extraherar glimten sensorn en multiupplösning ''retinal'' representation (r(x t, l t À 1 ) ). Detta är indata till en glimt nätverk, som producerar en representation som skickas till LSTM kärna, som definierar nästa plats att delta i (l t ) (och klassificering beslut). (B) Schematisk beskrivning av kompletterande inlärningssystem och tillfällig kontroll. Överst: icke-parametrisk snabbinlärning hippocampal system och parametrisk slow-learning neokortical system (dvs. parametrisk: ett fast antal parametrar; icke-parametrisk: antalet parametrar kan växa med mängden data). Hippocampus / instans-baserat system stöder snabb beteendejustering (dvs. episodisk kontroll; Blundell et al., 2016) och erfarenhet replay, som stöder interleaved träning (dvs. på slumpmässiga undergrupper av erfarenheter) av djupa neurala nätverk eller neokortex. Nederst: episodisk kontroll (från Blundell et al., 2016). Speltillstånd (Atari visas) lagras i buffertar (en för varje möjlig åtgärd) tillsammans med den högsta (diskonterade) avkastning som upplevs från detta tillstånd (dvs Q-värde). När du upplever ett nytt tillstånd, är policyn (p) bestäms genom att genomsnitt Q-värdet över k närmaste grannar i varje åtgärd buffert och välja åtgärden med den högsta förväntade avkastningen. (C) Illustration av paralleller mellan makroskopisk organisation av modeller av arbetsminne och den differentierade neurala datorn (Graves et al., 2016) (eller Neural Turing Machine). Nätverksregulatorn (vanligtvis recidiverande) är jämförbar med den centrala executive (vanligen betraktas som instanted in the prefrontal cortex) och deltar/läser/skriver till en extern minnesmatris (fonologisk loo / sketchpad i arbetsminnesmodell). Arkitektur visas utföra kopieringsuppgift. (D) Illustration av parallellen mellan neurobiologiska modeller av synapskonsolidering och algoritmen för elastisk viktkonsolidering (EWC). Vänster: två-foton strukturell avbildning data visar lärande-relaterad ökning av storleken på dendriter (var och en motsvarar ungefär en enda excitatorisk synaps) som består i månader (från Yang et al., 2009). Mitten: schema över Cascade modell för synaps konsolidering (anpassad med tillstånd från Fusi et al., 2005). Binary synapses övergång mellan metaplastiska tillstånd som är mer / mindre plast (minst plasttillstånd längst ner i diagrammet), som en funktion av föregående potentiation / depression händelser. Höger panel: schematisk av elastisk vikt konsolidering (EWC) algoritm. Efter träning på den första uppgiften (A), är nätverksparametrar optimerade för bra prestanda: enkelvikt (w 1 A * illustrerad). EWC implementerar en begränsning som liknar en fjäder som förankrar vikter till den tidigare funna lösningen (dvs. för uppgift A), vid träning på en ny uppgift (t.ex. uppgift B), med fjäderns styvhet proportionell mot vikten av parametern för uppgift A prestanda (Kirkpatrick et al., 2017). 248 Neuron 95, 19 juli 2017 Neuron Review lärde sig. Reprisbufferten i DQN kan därför ses som en mycket primitiv hippocampus, vilket möjliggör kompletterande lärande i silico i stort sett som föreslås för biologiska hjärnor. Senare arbete visade att fördelarna med erfarenhet replay i DQN förbättras när repris av mycket givande händelser prioriteras (Schaul et al., 2015), precis som hippocampal replay verkar gynna händelser som leder till höga nivåer av förstärkning (Singer och Frank, 2009). Erfarenheter som lagras i en minnesbuffert kan inte bara användas för att gradvis justera parametrarna i ett djupt nätverk mot en optimal policy, som i DQN, men kan också stödja snabba beteendeförändringar baserat på en individuell erfarenhet. Teoretisk neurovetenskap har argumenterat för de potentiella fördelarna med episodisk kontroll, varigenom belönade handlingssekvenser kan aktiveras internt från en snabbt uppdaterabar minneslager, implementeras i det biologiska fallet i hippocampus (Gershman och Daw, 2017). Dessutom visar normativa redovisningar att tillfällig kontroll är särskilt fördelaktig jämfört med andra inlärningsmekanismer när begränsad erfarenhet av miljön har erhållits (Lengyel och Dayan, 2007). Den senaste AI-forskningen har utnyttjat dessa idéer för att övervinna de långsamma inlärningsegenskaperna hos djupa RL-nätverk, utveckla arkitekturer som implementerar episodisk kontroll. Dessa nätverk lagrar specifika erfarenheter (t.ex. åtgärder och belöningsresultat förknippade med särskilda Atari-spelskärmar) och väljer nya åtgärder baserade på likheten mellan nuvarande situationsinput och tidigare händelser lagrade i minnet, med beaktande av belöningen i samband med tidigare händelser (figur 1B ). Som förutspått från den inledande, neuroscience-baserat arbete (Lengyel och Dayan, 2007), artificiella medel som använder episodisk kontroll visar slående vinster i prestanda över djupa RL-nätverk, särskilt tidigt under lärandet. Dessutom kan de uppnå framgång på uppgifter som är starkt beroende av endop-inlärning, där typiska djupa RL-arkitekturer misslyckas. Dessutom har episodiska minnessystem i allmänhet visat sig vara mycket lovande när det gäller att snabbt kunna lära sig nya begrepp utifrån bara några få exempel. I framtiden kommer det att vara intressant att utnyttja fördelarna med snabbt episodiskt minne och mer traditionellt inkrementellt lärande i arkitekturer som införlivar båda dessa komponenter inom ett samspelande ramverk som speglar de kompletterande inlärningssystemen i däggdjurshjärnan. Vi diskuterar dessa framtidsperspektiv mer i detalj senare, i "Imagination och planering". Working Memory Mänsklig intelligens kännetecknas av en anmärkningsvärd förmåga att upprätthålla och manipulera information inom en aktiv butik, känd som arbetsminne, som tros vara omedelbar inom prefrontal cortex och sammankopplade områden (Goldman-Rakic, 1990 ). Klassiska kognitiva teorier tyder på att denna funktionalitet beror på interaktioner mellan en central controller (''executive') och separata, domänspecifika minnesbuffertar (t.ex., visuo-spatial skisspad) (Baddeley, 2012). AI-forskningen har hämtat inspiration från dessa modeller, genom att bygga arkitekturer som uttryckligen upprätthåller information över tid. Historiskt började sådana ansträngningar med införandet av återkommande neurala nätverk arkitekturer som visar attraherar dynamik och rikt sekventiellt beteende, arbete direkt inspirerad av neurovetenskap (Elman, 1990; Hopfield och Tank, 1986; Jordanien, 1997). Detta arbete möjliggjorde senare, mer detaljerad modellering av mänskligt arbetsminne (Botvinick och Plaut, 2006; Durstewitz et al., 2000), men det lade också grunden för ytterligare tekniska innovationer som har visat sig avgörande i den senaste AI-forskningen. I synnerhet kan man se nära paralleller mellan inlärningsdynamiken i dessa tidiga, neuroscience-inspirerade nätverk och de i långsiktiga minnesnätverk (LSTM), som därefter uppnådde toppmoderna prestanda över en mängd olika domäner. LTSM gör det möjligt att koppla in information i ett fast aktivitetstillstånd och behålla den tills en lämplig utmatning krävs (Hochreiter och Schmidhuber, 1997). Varianter av denna typ av nätverk har visat några slående beteenden i utmanande domäner, såsom lära sig att svara på frågor om latent tillstånd av variabler efter utbildning på datorkod (Zaremba och Sutskever, 2014). I vanliga LSTM-nätverk är funktionerna för sekvensreglering och minneslagring tätt sammanflätade. Detta kontrasterar mot klassiska modeller av mänskligt arbetsminne, som, som nämnts ovan, separerar dessa två. Detta neuroscience-baserade schema har nyligen inspirerat mer komplexa AI arkitekturer där kontroll och lagring stöds av distinkta moduler Weston et al., 2014). Till exempel, differential neurala datorn (DNC) innebär en neural nätverk controller som sköter och läser/skriver från en extern minnesmatris. Denna utläggning gör det möjligt för nätverksstyrenheten att lära sig från grunden (dvs. via end-to-end optimering) att utföra ett brett spektrum av komplexa minnes- och resonemangsuppgifter som för närvarande undviker LSTMs, såsom att hitta den kortaste vägen genom en grafliknande struktur, såsom en tunnelbanekarta, eller manipulera block i en variant av Tower of Hanoi uppgift ( Figur 1C ). Dessa typer av problem har tidigare hävdats vara uteslutande beroende av symbolbehandling och variabel bindning och därmed utanför neurala nätverk (Fodor och Pylyshyn, 1988; Marcus, 1998). Observera att även om både LSTM:er och DNC beskrivs här i samband med arbetsminnet, har de potential att upprätthålla information över tusentals träningscykler och kan därför vara lämpade för mer långsiktiga minnesformer, såsom att behålla och förstå innehållet i en bok. Kontinuerligt lärande Intelligenta agenter måste kunna lära sig och komma ihåg många olika uppgifter som påträffas under flera tidsperioder. Både biologiska och artificiella agenser måste därför ha en kapacitet för kontinuerlig inlärning, det vill säga en förmåga att bemästra nya uppgifter utan att glömma hur man utför tidigare uppgifter (Thrun och Mitchell, 1995). Medan djur verkar relativt skickliga på kontinuerlig inlärning, neurala nätverk lider av problemet med katastrofala glömska (franska, 1999; McClelland m.fl., 1995). Detta inträffar när nätverksparametrarna skiftar mot det optimala tillståndet för att utföra den andra av två på varandra följande uppgifter, överskriver konfigurationen som tillät dem att utföra den första. Med tanke på vikten av kontinuerlig inlärning, detta ansvar neurala nätverk förblir en betydande utmaning för utvecklingen av AI. Inom neurovetenskap, avancerade neuroimaging tekniker (t.ex., två-foton avbildning) nu tillåter dynamisk in vivo visualisering av strukturen och funktionen hos dendritiska ryggrader under lärande, på den rumsliga skalan av enstaka synapser (Nishiyama och Yasuda, 2015). Detta tillvägagångssätt kan användas för att studera Neuron 95, juli 19, 2017 249 Neuron Review neokortikal plasticitet under kontinuerlig inlärning (Cichon och Gan, 2015; Hayashi-Takagi et al., 2015; Yang et al., 2009 ). Det finns nya bevis för specialiserade mekanismer som skyddar kunskap om tidigare uppgifter från störningar när man lär sig om en ny uppgift. Dessa inkluderar minskad synapsisk labilitet (dvs. lägre grad av plasticitet) i en andel förstärkta synapser, medierade av utvidgningar till dendritiska ryggrader som kvarstår trots inlärning av andra uppgifter (Cichon och Gan, 2015; Yang et al., 2009) (Figur 1D ). Dessa förändringar är förknippade med bibehållande av uppgiften prestanda under flera månader, och faktiskt, om de är ''rad'' med synapsoptogenetik, leder detta till att glömma uppgiften (Hayashi-Takagi et al., 2015). Dessa empiriska insikter överensstämmer med teoretiska modeller som antyder att minnen kan skyddas från störningar genom synapser som övergår mellan en kaskad av stater med olika nivåer av plasticitet (Fusi et al., 2005) (Figur 1D ). Tillsammans har dessa resultat från neurovetenskap inspirerat utvecklingen av AI-algoritmer som tar itu med utmaningen att kontinuerligt lära sig i djupa nätverk genom att genomföra en form av "elastisk" viktkonsolidering (EWC) (Kirkpatrick et al., 2017), som verkar genom att sakta ner inlärningen i en delmängd av nätverksvikter som identifierats som viktiga för tidigare uppgifter, och därmed förankra dessa parametrar till tidigare funna lösningar ( Figur 1D ). Detta gör det möjligt att lära sig flera uppgifter utan att öka nätkapaciteten, med vikter som fördelas effektivt mellan uppgifter med tillhörande struktur. På så sätt gör EWC-algoritmen det möjligt för djupa RL-nätverk att stödja kontinuerlig inlärning i stor skala. I AI, tempot i den senaste forskningen har varit anmärkningsvärt. Konstgjorda system matchar nu mänsklig prestanda i utmanande objektigenkänning uppgifter (Krizhevsky et al., 2012) och överträffa experter människor i dynamiska, kontradiktoriska miljöer som Atari videospel, det gamla brädspelet Go (Silver et al., 2016), och ofullkomliga information spel såsom heads-up poker (Morav cík et al., 2017). Maskiner kan självständigt generera syntetiska naturliga bilder och simuleringar av mänskligt tal som är nästan oskiljaktiga från deras verkliga motsvarigheter (Lake et al., 2015; van den Oord et al., 2016), översätta mellan flera språk (Wu et al., 2016), och skapa ''neural konst' i stil med välkända målare (Gatys et al., 2015). Det krävs dock fortfarande mycket arbete för att överbrygga klyftan mellan maskin och intelligens på mänsklig nivå. När vi arbetar för att minska denna klyfta tror vi att idéer från neurovetenskapen kommer att bli alltmer oumbärliga. I neurovetenskap, tillkomsten av nya verktyg för hjärnavbildning och genetisk bioteknik har börjat erbjuda en detaljerad karakterisering av de beräkningar som sker i neurala kretsar, lovande en revolution i vår förståelse av däggdjurs hjärnfunktion (Deisseroth och Schnitzer, 2013). Neurovetenskapens relevans, både som en färdplan för AI-forskningsagendan och som en källa till beräkningsverktyg, är särskilt framträdande inom följande nyckelområden. Intuitiv förståelse av den fysiska världen Nya perspektiv betonar viktiga ingredienser i mänsklig intelligens som redan är väl utvecklade hos mänskliga spädbarn men saknar i de flesta AI-system (Gilmore et al., 2007; Gopnik och Schulz, 2004; Lake et al., 2016). Bland dessa förmågor finns kunskap om centrala begrepp som relaterar till den fysiska världen, såsom utrymme, antal och objektitet, som gör det möjligt för människor att konstruera komposition mentala modeller som kan vägleda inferens och förutsägelse (Battaglia et al., 2013; Spelke och Kinzler, 2007). AI-forskningen har börjat utforska metoder för att ta itu med denna utmaning. Till exempel har nya neurala nätverksarkitekturer utvecklats som tolkar och resonerar om scener på ett människolikt sätt, genom att bryta ner dem i enskilda objekt och deras relationer Chang et al., 2016; Eslami et al., 2016) (figur 2A och 2B). I vissa fall har detta resulterat i mänsklig nivå prestanda på utmanande resonemang uppgifter. I annat arbete har djup RL använts för att fånga de processer genom vilka barn får en allmän förståelse av världen genom interaktiva experiment (Denil et al., 2016). Relaterade, djupt generativa modeller har utvecklats som kan konstruera rika objekt modeller från rå sensoriska ingångar (Higgins et al., 2016). Dessa hävstång begränsningar först identifierade i neurovetenskap, såsom redundans minskning (Barlow, 1959), som uppmuntrar uppkomsten av lösliga representationer av oberoende faktorer såsom form och position (figur 2C). Viktigt, de latenta representationer lärt av sådana generativa modeller uppvisar kompositionsegenskaper, stöder flexibel överföring till nya uppgifter (Eslami et al., 2016; Higgins et al., 2016; Rezende et al., 2016a). I bildtexten för Bild 2 ger vi mer detaljerad information om dessa nätverk. Effektiv inlärning Mänsklig kognition utmärker sig genom sin förmåga att snabbt lära sig om nya begrepp från bara en handfull exempel, utnyttja tidigare kunskap för att möjliggöra flexibla induktiva slutsatser. För att lyfta fram denna mänskliga förmåga som en utmaning för AI utgjorde Lake och kollegor nyligen en "teckenutmaning" (Lake et al., 2016). Här måste en observatör särskilja nya fall av en obekant handskriven karaktär från andra liknande objekt efter att ha tittat på endast ett enda exempel. Människor kan utföra denna uppgift väl, men det är svårt för klassiska AI-system. Uppmuntrande, senaste AI algoritmer har börjat göra framsteg på uppgifter som karaktärerna utmaning, genom både strukturerade probabilistiska modeller (Lake et al., 2015) och djupa generativa modeller baserade på ovan nämnda DRAW modell (Rezende et al., 2016b). Båda klasser av system kan göra slutsatser om ett nytt koncept trots en brist på data och generera nya prover från ett enda exempel koncept ( Figur 2D ). Vidare har den senaste AI-forskningen utvecklat nätverk som "lär sig att lära," förvärva kunskap om nya uppgifter genom att utnyttja tidigare erfarenhet av relaterade problem, för att stödja en-shot koncept lärande (Santoro et al., 2016; Vinyals et al., 2016) och påskynda lärande i RL uppgifter (Wang et al., 2016). Återigen bygger detta på begrepp från neurovetenskap: lärande att lära utforskades först i studier av djurinlärning (Harlow, 1949), och har därefter studerats i utvecklingspsykologi (Adolph, 2005; Kemp et al., 2010; Smith, 1995 Neuron Review exempel, en människa som kan köra bil, använda en bärbar dator, eller ordförande ett kommittémöte är vanligtvis kan agera effektivt när de konfronteras med en okänd fordon, operativsystem, eller social situation. Framsteg görs i utvecklingen av AI arkitekturer som kan uppvisa stark generalisering eller överföring, till exempel genom att möjliggöra noll-shot slutsatser om nya former utanför utbildningsdistributionen baserat på kompositions representationer (Higgins et al., 2016; Figur 2C ). Andra har visat att en ny klass av arkitektur, känd som ett progressivt nätverk, kan utnyttja kunskap som vunnits i ett tv-spel för att lära sig snabbt i ett annat, lovande den typ av ""långa överföring""" som är karakteristisk för mänsklig kompetens förvärv (Rusu et al., 2016a). Progressiva nätverk har också framgångsrikt använts för att överföra kunskap för en simulerad robotisk miljö till en riktig robotarm, kraftigt minska den utbildningstid som krävs på den verkliga världen (Rusu et al., 2016b). Intressant nog har den föreslagna arkitekturen en viss likhet med en framgångsrik beräkningsmodell av sekventiell uppgiftsinlärning hos människor (Collins och Koechlin, 2012; Donoso et al., 2014). I neurovetenskapens litteratur har ett kännetecken för överföringslärande varit förmågan att (Eslami et al., 2016). Överst: iterativ slutsats i en variationsrik automatisk kodararkitektur. Det återkommande nätverket deltar i ett objekt i taget, drar slutsatser om dess attribut och utför lämpligt antal slutsteg för varje indatabild (x). Scener beskrivs i termer av grupper av latenta variabler (Z) som anger närvaro / frånvaro (z pres ), egenskaper såsom position (z var ), och form (z vad ). Inferensnätverk (svarta anslutningar) och generatornätet (röd pil), som producerar rekonstruerad bild (y). Nederst: illustration av iterativ slutsats i flera MNIST-bilder (grön indikerar det första steget och rött det andra steget). Rätt: slutsatser om position/form av flera objekt i realistisk scen (observera att slutsatsen är korrekt, och därför är det svårt att skilja mellan infererade positioner [röd linje] och marksanning). Latent representationer i detta nätverk hastighet lärande på nedströms uppgifter (t.ex., tillägg av MNIST siffror) (inte avbildad; se Eslami et al., 2016). (C) Obesudlad inlärning av kärnobjektets egenskaper (Higgins et al., 2016 ) visas. Vänster: schematiskt illustrerande inlärning av disentanglade faktorer av sensorisk ingång genom djup generativ modell (vänster: variations auto-encoder [VAE]), vars representationer kan påskynda inlärning på nedströms uppgifter (Eslami et al., 2016), jämfört med relativt insnärjd representation lärt sig av typiska djupa nätverk (t.ex., DQN: höger). Höger panel illustrerar latent representation av VAE; latenta enheter som kodar för faktorer av variation, såsom objektposition, rotation, och skala, visas genom effekten av att självständigt ändra aktiviteten av en latent enhet. Sådana nätverk kan lära sig intuitiva begrepp som ''objektivitet,'' att kunna stödja noll-shot överföring (dvs. resonemang om position eller skala av ett osynligt objekt med en ny form; Higgins et al., 2016). (D) En-shot generalisering i djupa sekventiella generativa modeller (Rezende et al., 2016b ) visas. Djupa generativa modeller anger en kausalprocess för att generera observerade data med hjälp av en hierarki av latenta variabler, med uppmärksamhetsmekanismer som stöder sekventiell slutsats. Illustrerade är genererade prover från Rezende et al. modell, beroende på en enda roman karaktär från en hållen alfabet från Omniglot dataset (Lake et al., 2015), visar förmågor som speglar mänskliga förmågor att generalisera från ett enda koncept. (E) Föreställning om realistiska miljöer i djupa nätverk (Chiappa et al., 2017 ) visas. Genererade (vänster) och verkliga (höger) ramar från proceduriska labyrinter (dvs ny labyrint layout på varje episod) som produceras av en åtgärd-villkorlig återkommande nätverksmodell $150 och 200 ramar efter den sista observerade bilden, respektive. Neuron 95, juli 19, 2017 251 Neuron Review resonera relationsmässigt, och AI forskare har också börjat göra framsteg i att bygga djupa nätverk som tar itu med problem av detta slag, till exempel genom att lösa visuella analogier (Reed et al., 2015). Mer allmänt är dock hur människor eller andra djur uppnår denna typ av överföringsutbildning på hög nivå okänd, och förblir ett relativt outforskat ämne inom neurovetenskapen. Nya framsteg på denna front kan ge kritiska insikter för att sporra AI-forskning mot målet livslångt lärande i agenter, och vi uppmuntrar neuroforskare att engagera sig djupare i denna fråga. På nivån neural kodning, denna typ av överföring av abstrakt strukturerad kunskap kan förlita sig på bildandet av konceptuella representationer som är invarianta till objekt, individer, eller scenelement som befolkar en sensorisk domän men istället kod för abstrakt, relationell information bland mönster av ingångar (Doumas et al., 2008). För närvarande saknar vi emellertid direkta bevis för att det finns sådana koder i däggdjurshjärnan. Ändå gjorde en färsk rapport det mycket intressanta påståendet att neurala koder anses vara viktiga i representationen av allocentriska (karta-liknande) utrymmen kan vara kritiska för abstrakt resonemang i mer allmänna domäner (Constantinescu et al., 2016). I däggdjurs entrhinal cortex, celler koda geometrin av allocentriskt utrymme med en periodisk ''grid'' kod, med mottagliga fält som kakel lokal utrymme i en hexagonal mönster (Rowland et al., 2016). Rutnätskoder kan vara en utmärkt kandidat för att organisera konceptuell kunskap, eftersom de tillåter tillståndsutrymmen att brytas ned effektivt, på ett sätt som kan stödja upptäckt av submål och hierarkisk planering (Stachenfeld m.fl., 2014). Med hjälp av funktionell neuroimering, forskarna ger bevis för förekomsten av sådana koder medan människor utförde en abstrakt kategorisering uppgift, stödja uppfattningen att periodisk kodning är ett generaliserat kännetecken för mänsklig kunskapsorganisation (Constantinescu et al., 2016). Det krävs dock mycket ytterligare arbete för att styrka detta intressanta påstående. Trots deras starka resultat på målinriktade uppgifter, djupa RL-system som DQN fungerar mestadels på ett reaktivt sätt, lära kartläggning från perceptuella ingångar till åtgärder som maximerar framtida värde. Denna ''modellfria'' RL är beräknings billigt men lider av två stora nackdelar: det är relativt ineffektiva data, kräver stora mängder erfarenhet för att härleda korrekta uppskattningar, och det är oflexibelt, att vara okänslig för förändringar i värdet av utfall (Daw et al., 2005). Däremot kan människor mer flexibelt välja åtgärder baserade på prognoser för långsiktiga framtida resultat genom simuleringsbaserad planering, som använder förutsägelser som genereras från en intern modell av miljön lärt sig genom erfarenhet (Daw et al., 2005; Dolan och Dayan, 2013; Tolman, 1948). Dessutom är planering inte en unik mänsklig kapacitet. Till exempel, när caching mat, scrub jays överväga de framtida förhållanden under vilka det är sannolikt att återhämta sig (Raby et al., 2007) och råttor använder en ''kognitiv karta'' vid navigering, tillåter induktiva slutsatser under vägsökning och underlättar en-shot lärande beteenden i labyrint-liknande miljöer (Daw et al., 2005; Tolman, 1948). Naturligtvis har denna punkt inte gått förlorad på AI forskare; faktiskt, tidig planering algoritmer som Dyna (Sutton, 1991) inspirerades av teorier som betonade vikten av "mentala modeller" för att generera hypotetiska erfarenheter användbara för mänskligt lärande (Craik, 1943). Vid det här laget finns en stor mängd litteratur om AI-planeringstekniker, inklusive modellbaserade RL-metoder, som försöker genomföra denna prognosbaserade metod för åtgärdsval. Dessutom simuleringsbaserad planering, särskilt Monte Carlo trädsökning (MCTS) metoder, som använder framåt sökning för att uppdatera en värdefunktion och / eller policy (Browne et al., 2012), spelade en nyckelroll i det senaste arbetet där djup RL uppnått expertnivå prestanda i spelet Go (Silver et al., 2016). AI forskning om planering, dock, har ännu att fånga några av de viktigaste egenskaperna som ger mänsklig planering förmågor sin makt. I synnerhet föreslår vi att en allmän lösning på detta problem kommer att kräva förståelse för hur rika interna modeller, som i praktiken måste vara ungefärliga men tillräckligt exakta för att stödja planering, kan läras genom erfarenhet, utan att starka tidigare handgjordas i nätverket av försöksledaren. Vi hävdar också att AI-forskning kommer att dra nytta av en noggrann läsning av den relaterade litteraturen om hur människor föreställer sig möjliga scenarier, föreställer sig framtiden och utför simuleringsbaserad planering, funktioner som är beroende av ett gemensamt neuralt substrat i hippocampus (Doll et al., 2015; Maguire, 2007, 2009; Schacter et al., 2012). Även om fantasin har en inneboende subjektiv, omärklig kvalitet, har vi anledning att tro att den har en bevarad roll i simuleringsbaserad planering mellan arter (Hassabis och Maguire, 2009; Schacter et al., 2012). Till exempel, när pausas vid en valpunkt, krusningar av neural aktivitet i råtta hippocampus liknar de som observerats under efterföljande navigering av tillgängliga banor ('preplay'), som om djuret var ''imagining'' varje möjligt alternativ (Johnson och Redish, 2007; Ó lafsdó ttir et al., 2015; Pfeiffer och Foster, 2013). Vidare har det senaste arbetet föreslagit en liknande process under icke-spatial planering hos människor (Doll et al., 2015; Kurth-Nelson et al., 2016). Vi har diskuterat ovan hur införandet av mekanismer som spelar upp och lär sig offline från tidigare erfarenheter kan förbättra prestandan hos djupa RL-agenter som DQN (som diskuteras ovan i Episodic Memory). Vissa uppmuntrande inledande framsteg mot simuleringsbaserad planering har gjorts med hjälp av djupa generativa modeller (Eslami et al., 2016; Rezende et al., 2016a Rezende et al.,, 2016b (Figur 2). I synnerhet, senaste arbetet har infört nya arkitekturer som har kapacitet att generera temporalt konsekventa sekvenser av genererade prover som återspeglar den geometriska layouten av nyligen erfarna realistiska miljöer (Gemici et al., 2017; Oh et al., 2015) (Figur 2E ), vilket ger en parallell till funktionen av hippocampus att binda ihop flera komponenter för att skapa en inbillad upplevelse som är rumsligt och temporalt sammanhängande (Hassabis och Maguire, 2007). Djupa generativa modeller visar därmed potentialen att fånga den rika dynamiken i komplexa realistiska miljöer, men att använda dessa modeller för simuleringsbaserad planering i agenter är fortfarande en utmaning för framtida arbete. Insikter från neurovetenskap kan ge vägledning som underlättar integrationen av simulering med kontroll. En ny bild från neurovetenskap forskning tyder på att hippocampus stöder planering genom att ögonblickliga en intern modell av miljön, med mål-kontingent värdering av simulerade resultat som sker i områden nedströms från hippocampus 252 Neuron 95, juli 19, 2017 Neuron Review sådan omloppsbana frontal cortex eller striatum (Redish, 2016). De mekanismer som styr utvecklingen av en intern miljömodell i hippocampus är dock fortfarande osäkra och förtjänar framtida granskning. En möjlighet är att denna process initieras av prefrontal cortex genom interaktioner med hippocampus. Faktum är att detta begrepp har distinkta paralleller med förslag från AI forskning att en separat styrenhet interagerar med en intern modell av miljön på ett dubbelriktat sätt, frågar modellen baserat på uppgifter-relevanta mål och tar emot förutspådda simulerade tillstånd som ingång (Schmidhuber, 2014). Vidare har den senaste tidens insatser för att utveckla agenter använt arkitekturer som snabbar upp en separation mellan styrenhet och miljömodell för att påverka simuleringsbaserad planering i problem som involverar samspelet mellan fysiska objekt (Hamrick et al., 2017). För att förbättra agentkapaciteten i simuleringsbaserad planering kommer det också att vara viktigt att överväga andra framträdande egenskaper hos denna process hos människor Maguire, 2007, 2009). Forskning om människans fantasi betonar dess konstruktiva natur, med människor som kan konstruera fiktiva mentala scenarier genom att rekombinera bekanta element på nya sätt, necessitating kompositionella / disentangliga representationer av formen närvarande i vissa generativa modeller (Eslami et al., 2016; Higgins et al., 2016; Rezende et al., 2016a). Detta stämmer väl överens med uppfattningen att planering hos människor innebär effektiva representationer som stöder generalisering och överföring, så att planer smidda i en miljö (t.ex. att gå genom en dörr för att nå ett rum) kan utnyttjas i nya miljöer som delar struktur. Dessutom är planering och mental simulering hos människor ''jumpy'' överbrygga flera temporalskalor åt gången; till exempel verkar människor planera hierarkiskt, genom att överväga i parallella terminallösningar, tillfälliga valpunkter, och bitvis steg mot målet (Balaguer et al., 2016; Solway et al., 2014; Huys et al., 2012). Vi tror att i slutändan dessa flexibla, kombinatoriska aspekter av planering kommer att utgöra en kritisk grund för vad som kanske är den svåraste utmaningen för AI-forskning: att bygga en agent som kan planera hierarkiskt, är verkligt kreativ, och kan generera lösningar på utmaningar som för närvarande undkommer även det mänskliga sinnet. Virtual Brain Analytics Ett ganska annorlunda sätt på vilket neurovetenskap kan tjäna AI är genom att tillhandahålla nya analytiska verktyg för att förstå beräkning i AI-system. På grund av deras komplexitet förblir produkterna i AI-forskningen ofta ''svarta lådor''; vi förstår bara dåligt vilken typ av beräkningar som sker, eller representationer som bildas, under inlärning av komplexa uppgifter. Men genom att tillämpa verktyg från neurovetenskap till AI-system, syntetiska motsvarigheter av encellsinspelning, neuroimaging, och lesion tekniker, kan vi få insikter i de viktigaste drivkrafterna för framgångsrikt lärande i AI-forskning och öka tolkningen av dessa system. Vi kallar detta "virtuell hjärnanalys". Den senaste tidens arbete har gjort vissa framsteg i denna riktning. Till exempel, visualisera hjärnan tillstånd genom dimensionalitetsreduktion är vanligt förekommande i neurovetenskap, och har nyligen applicerats på neurala nätverk (Zahavy et al., 2016). Receptiv fältkartläggning, ett annat standardverktyg inom neurovetenskap, gör det möjligt för AI-forskare att bestämma responsegenskaperna hos enheter i ett neuralt nätverk. En intressant tillämpning av detta tillvägagångssätt i AI är känd som aktivitet maximization, där ett nätverk lär sig att generera syntetiska bilder genom att maximera aktiviteten hos vissa klasser av enhet (Nguyen et al., 2016; Simonyan et al., 2013). På andra håll har neuroscience-inspirerade analyser av lineariserade nätverk avslöjat viktiga principer som kan vara av allmän nytta för att optimera lärandet av dessa nätverk, och förstå fördelarna med nätverkdjup och representationsstruktur (McClelland och Rogers, 2003; Saxe et al., 2013). Även om dessa inledande framsteg är uppmuntrande, krävs det mer arbete. Det är fortfarande svårt att karakterisera funktionen av komplexa arkitekturer såsom nätverk med externt minne. Icke desto mindre är AI-forskare i den unika positionen att ha grundsanning kunskap om alla komponenter i systemet, tillsammans med potentialen att kausalt manipulera enskilda element, ett avundsvärt scenario ur perspektivet experimentella neuroforskare. Som sådan uppmuntrar vi AI-forskare att använda metoder från neurovetenskap för att utforska egenskaper hos nätverksarkitekturer och -agenter genom analys, visualisering, kausalmanipulering, inte att glömma behovet av noggrant utformade hypotesdrivna experiment (Jonas and Kording, 2017; Krakauer et al., 2017). Vi tror att virtuell hjärnanalys sannolikt kommer att bli en allt mer integrerad del av rörledningen för algoritmisk utveckling när komplexiteten i arkitekturer ökar. Hittills har vår granskning främst fokuserat på neurovetenskapens roll för att påskynda AI-forskningen snarare än tvärtom. Historiskt sett har emellertid informationsflödet mellan neurovetenskap och AI varit ömsesidigt. Maskininlärning tekniker har förändrat analysen av neuroimaging datasets-till exempel i multivariat analys av fMRI och magnetoencephalographic (MEG) data (Cichy et al., 2014; Ç ukur et al., 2013; Kriegeskorte och Kievit, 2013)-med löfte om expediting connectomic analys (Glasser et al., 2016), bland andra tekniker. Vidare tror vi att byggandet av intelligenta algoritmer har potential att erbjuda nya idéer om intelligensens underbyggnad i människors och andra djurs hjärnor. I synnerhet psykologer och neuroforskare har ofta bara ganska vaga föreställningar om de mekanismer som ligger till grund för de begrepp de studerar. AI forskning kan hjälpa, genom att formalisera dessa begrepp i ett kvantitativt språk och erbjuda insikter i deras nödvändighet och tillräcklighet (eller på annat sätt) för intelligent beteende. En viktig illustration av denna potential ges av RL. Efter idéer från djurpsykologi hjälpte till att föda till förstärkning av lärande forskning, nyckelbegrepp från den senare matas tillbaka för att informera neurovetenskap. I synnerhet, profilen av neurala signaler observerade i mitthjärnan dopaminerga neuroner i konditionering paradigmer befanns ha en slående likhet med TD-genererade förutsägelsefel, vilket ger neurala bevis för att hjärnan genomför en form av TD-inlärning (O'Doherty et al., 2003; Schultz et al., 1997). Denna övergripande berättande båge ger en utmärkt illustration av hur utbytet av idéer mellan AI och neurovetenskap kan skapa en ''virtuös cirkel'' som främjar målen för båda fälten. Inom ett annat område har arbetet fokuserat på att förbättra CNN:s prestanda också gett nya insikter i karaktären av neurala representationer i visuella områden på hög nivå (KhalighRazavi och Kriegeskorte, 2014; Yamins och DiCarlo, 2016). För Neuron 95, 19 juli 2017 253 Neuron Review exempel, en grupp systematiskt jämförde förmågan av mer än 30 nätverk arkitekturer från AI för att förklara strukturen av neurala representationer observerade i ventral visuell ström av människor och apor, hitta gynnsamma bevis för djupt övervakade nätverk (Khaligh-Razavi och Kriegeskorte, 2014). Dessutom erbjuder dessa djupkonvolutionella nätverksarkitekturer en beräkningsbild av de senaste neurofysiologiska data som visar att kodningen av objekts kategori-ortogonala egenskaper (t.ex. position, storlek) faktiskt ökar när man går högre upp i den ventrala visuella strömmen (Hong et al., 2016). Även om dessa resultat är långt ifrån definitiva ännu, visar det hur state-of-the-art neurala nätverk från AI kan användas som rimlig simulacra av biologiska hjärnor, potentiellt ge detaljerade förklaringar av de beräkningar som sker däri (Khaligh-Razavi och Kriegeskorte, 2014; Yamins och DiCarlo, 2016). Relaterade egenskaper hos LSTM arkitektur har gett viktiga insikter som motiverade utvecklingen av arbetsminnesmodeller som ger geting-baserat underhåll av uppgiftsrelevant information i prefrontal cortex (Lloyd et al., 2012; O'Reilly och Frank, 2006). Vi lyfter också fram två nya delar av AI-forskning som kan motivera ny forskning inom neurovetenskap. För det första, neurala nätverk med externt minne tillåter vanligtvis regulatorn att iterativt fråga eller ''hoppa igenom' innehållet i minnet. Denna mekanism är kritisk för resonemang över flera stödjande synpunkter som avser en viss fråga (Sukhbaatar et al., 2015). Tidigare förslag inom neurovetenskap har argumenterat för en liknande mekanism i mänsklig kognition, men alla potentiella neurala substrat, potentiellt i hippocampus, återstår att beskriva (Kumaran och McClelland, 2012). För det andra belyser det senaste arbetet de potentiella fördelarna med ''meta-reforcement learning,'' där RL används för att optimera vikterna i ett återkommande nätverk så att det senare kan genomföra en andra, framväxande RL algoritm som kan lära sig snabbare än originalet (Duan et al., 2016; Wang et al., 2016). Förvånansvärt nog hänger dessa idéer samman med en växande neurovetenskapslitteratur som visar på en roll för den prefrontala cortexen i RL, vid sidan av mer etablerade dopaminbaserade mekanismer (Schultz et al., 1997). Specifikt indikerar de hur en relativt långsamt inlärd dopaminerg RL-algoritm kan stödja uppkomsten av en fristående RL-algoritm omedelbart med den återkommande aktivitetsdynamiken i prefrontal cortex (Tsutsui et al., 2016). Insikter från AI-forskning ger också nya perspektiv på hur hjärnan kan implementera en algoritmisk parallell till backpropagation, den nyckelmekanism som gör att vikter inom flera lager i ett hierarkiskt nätverk kan optimeras mot en objektiv funktion (Hinton et al., 1986; Werbos, 1974). Backpropagation erbjuder en kraftfull lösning på problemet med kredittilldelning inom djupa nätverk, vilket gör det möjligt att lära sig effektiva representationer från högdimensionella data (LeCun et al., 2015). Men fram till nyligen, flera aspekter av backpropagation algoritm ansågs vara biologiskt osannolika (t.ex., se Bengio et al., 2015). En viktig faktor är att backpropagation vanligtvis har ansetts kräva perfekt symmetrisk återkoppling och feedfore-anslutning, en profil som inte observeras i däggdjurshjärnor. Det senaste arbetet har dock visat att denna begränsning i själva verket kan mildras (Liao et al., 2015; Lillirap et al., 2016). Slumpmässiga bakåtkopplingar, även när de hålls fast under hela nätverksträningen, är tillräckliga för att göra det möjligt för backpropagation algoritmen att fungera effektivt genom en process där justering av de främre vikterna tillåter bakåtprojektioner att överföra användbara undervisningssignaler. En annan grundläggande invändning mot den biologiska rimligheten av backpropagation är att viktuppdateringar i flerskiktsnätverk kräver tillgång till information som är icke-lokal (dvs. felsignaler som genereras av enheter många lager nedströms) (för granskning, se Bengio et al., 2015). Däremot beror plasticiteten i biologiska synapser främst på lokal information (dvs. pre- och postsynaptisk neuronal aktivitet) (Bi och Poo, 1998). AI-forskningen har börjat ta itu med denna grundläggande fråga. I synnerhet har nyligen arbete visat att hierarkiska auto-encoder nätverk och energibaserade nätverk (t.ex., kontinuerliga Hopfield nätverk) (Scellier och Bengio, 2016; Whittington och Bogacz, 2017) -modeller som har starka kopplingar till teoretiska neurovetenskap idéer om prediktiv kodning (Bastos et al., 2012) -kan approximera backpropagation algoritm, baserat på vikt uppdateringar som involverar rent lokal information. Konkreta kopplingar har faktiskt dragits mellan lärande i sådana nätverk och spets-timing beroende plasticitet (Scellier och Bengio, 2016), en hebbian mekanism direktoraterade brett över hjärnan (Bi och Poo, 1998). En annan klass av lokalt lärande regel har visat sig tillåta hierarkiska övervakade nätverk att generera hög nivå invarianter karakteristiska för biologiska system, inklusive spegelsymmetrisk inställning till fysiskt symmetriska stimuli, såsom ansikten (Leibo et al., 2017). Tillsammans erbjuder den senaste AI-forskningen löftet om att upptäcka mekanismer genom vilka hjärnan kan implementera algoritmer med funktionalitet backpropagation. Dessutom illustrerar denna utveckling potentialen för synergistiska interaktioner mellan AI och neurovetenskap: forskning som syftar till att utveckla biologiskt rimliga former av backpropagation har också motiverats av sökandet efter alternativa inlärningsalgoritmer. Med tanke på de allt djupare nätverk (t.ex., > 20 lager) som används i AI-forskning, faktorer som sammansättning av på varandra följande icke-linjäriteter utgör utmaningar för optimering med hjälp av backpropagation. I detta perspektiv har vi gått igenom några av de många sätt på vilka neurovetenskap har gjort grundläggande bidrag till att främja AI-forskning, och argumenterat för dess allt viktigare relevans. I strategeringen för det framtida utbytet mellan de två fälten, är det viktigt att inse att tidigare bidrag av neurovetenskap till AI har sällan involverat en enkel överföring av fullfjädrade lösningar som kan direkt re-implementeras i maskiner. Snarare, neurovetenskap har typiskt varit användbart på ett subtilare sätt, stimulera algoritmiska-nivå frågor om aspekter av djurinlärning och intelligens av intresse för AI forskare och ge inledande leder mot relevanta mekanismer. Som sådan, vår uppfattning är att utnyttja insikter från neurovetenskap forskning kommer att påskynda framsteg i AI forskning, och detta kommer att vara mest effektivt om AI forskare aktivt initierar samarbeten med neuroforskare för att belysa viktiga frågor som skulle kunna behandlas genom empiriskt arbete.
En sådan approximation kanske dock inte till fullo förklarar att bildutrymmen är vidsträckta och glest befolkade REF.
4,511,529
Neuroscience-Inspired Artificial Intelligence
{'venue': 'Neuron', 'journal': 'Neuron', 'mag_field_of_study': ['Psychology', 'Medicine']}
83,234
Bluetooth scatternets, integrera röstning, och frekvenshoppning bred-prectrum i deras medium access kontroll protokoll, ger en tvistfri miljö för Bluetooth-enheter för att få tillgång till medium och kommunicera över multihop länkar. För närvarande tenderar de flesta tillgängliga scatternet-bildningsprotokoll att koppla samman alla Bluetooth-enheter i det inledande nätverksstartstadiet och underhålla alla Bluetooth-länkar därefter. I stället för denna "stora scatternet" strategi, föreslår vi en scatternet-rutt struktur för att kombinera scatternet formation med on-demand routing, vilket eliminerar onödiga länkar och ruttunderhåll. Såvitt vi vet är detta det första försöket att ta itu med scatternetbildning på begäran med varje detalj. Vi introducerar en utökad ID (EID) anslutningslös sändningssystem, som, jämfört med ursprungliga Bluetooth-sändningsmekanism, uppnår mycket förkortad rutt upptäckt fördröjning. Vi föreslår också att synkronisera piconets längs varje scatternet rutt för att ta bort piconet switch overhead och få ännu bättre kanalanvändning. Dessutom presenterar vi ett ruttbaserat schema för scatternet för att möjliggöra rättvisa och effektiva paketöverföringar över scatternätsrutter. Nätverksprestandaanalys och simuleringar visar att scatternetrutter kan ge trådlösa multihopkanaler med hög nätverksanvändning och extremt stabil genomströmning, vilket är särskilt användbart vid överföring av stora partier paket och realtidsdata i trådlös miljö. Index Villkor-Ad hoc-nätverk, medium åtkomstkontroll, on-demand routing, scatternet formation, scatternet schemaläggning.
Den on-demand scatternet formation protokoll vi föreslog i detta dokument delar några gemensamma punkter med REF.
41,127,482
A Bluetooth scatternet-route structure for multihop ad hoc networks
{'venue': 'IEEE J. Sel. Areas Commun.', 'journal': 'IEEE J. Sel. Areas Commun.', 'mag_field_of_study': ['Computer Science']}
83,235
Visuell fråga svar är i grunden komposition i naturen-en fråga som var är hunden? delar understruktur med frågor som vilken färg är hunden? Och var är katten? Syftet med detta dokument är att samtidigt utnyttja de djupa nätverkens representationskapacitet och frågornas språkliga struktur. Vi beskriver ett förfarande för att bygga och lära neurala modulnätverk, som utgör samlingar av gemensamt utbildade neurala "moduler" i djupa nätverk för frågesvar. Vårt tillvägagångssätt bryter ner frågor i deras språkliga understrukturer, och använder dessa strukturer för att dynamiskt ögonblickliga modulära nätverk (med återanvändbara komponenter för att känna igen hundar, klassificera färger, etc.). De sammanslagna nätverken utbildas gemensamt. Vi utvärderar vårt förhållningssätt till två utmanande dataset för visuellt svar på frågor och uppnår toppmoderna resultat på både VQA:s naturliga bilddataset och en ny dataset med komplexa frågor om abstrakta former.
Modulära nätverk: Neurala modulnätverk REF infördes för visuellt svar på frågor.
1,683,726
Deep Compositional Question Answering with Neural Module Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,236
På grund av hög manöverförmåga, flexibel driftsättning och låga kostnader har obemannade luftfartyg (UAV) på senare tid väckt stort intresse för att bistå trådlös kommunikation. I detta dokument behandlas ett trådlöst kommunikationssystem med multi-UAV-funktion, där flera UAV-monterade flygbasstationer används för att betjäna en grupp användare på marken. För att uppnå rättvisa prestanda bland användare maximerar vi den minsta genomströmningen över alla markanvändare i nedlänkskommunikationen genom att optimera fleranvändarkommunikationens schemaläggning och association tillsammans med UAV:s bana och effektstyrning. Det formulerade problemet är ett blandat heltal nonconvex optimering problem som är utmanande att lösa. Som sådan föreslår vi en effektiv iterativ algoritm för att lösa det genom att tillämpa blockkoordinaten nedstigning och successiv konvex optimering tekniker. Specifikt, användaren schemaläggning och association, UAV bana och sändningskraft är alternativt optimerade i varje iteration. I synnerhet för den icke konvexa UAV bana och överföra problem effektoptimering, två ungefärliga konvexa optimeringsproblem är lösta, respektive. Vi visar vidare att den föreslagna algoritmen garanterat kommer att konvergera. För att påskynda algoritmkonvergensen och uppnå god genomströmning föreslås också ett system med låg komplexitet och systematisk initiering för UAV-banans utformning baserat på den enkla cirkulära banan och cirkelpackningsplanen. Omfattande simuleringsresultat tillhandahålls för att visa de betydande genomströmningsvinsterna med den föreslagna konstruktionen jämfört med andra referenssystem.
Ett multidrone-placeringsproblem undersöks i REF i syfte att maximera minsta möjliga genomströmning i nedlänkskommunikationen genom att gemensamt optimera trafikplanering och drönarnas enkla cirkulära bana och effektstyrning.
3,516,365
Joint Trajectory and Communication Design for Multi-UAV Enabled Wireless Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,237
Ett system för identifiering av vägmärken som bygger på adaptiva modeller för förbehandling av bilder med hjälp av två suddiga inferenssystem har föreslagits. Det första suddiga inferensschemat är att kontrollera ändringarna av ljusbelysningen och den rika röda färgen på en rambild vid kontrollområdena. Det andra är att kontrollera variansen för fordonets hastighet och rattvinkel för att välja en adaptiv storlek och läge för detektionsområdet. Adaboost klassificeraren användes för att upptäcka vägskyltar kandidater från en bild och stöd vektor maskinteknik användes för att känna igen innehållet i vägskyltar kandidater. De förbjudna och varnande trafikskyltarna är behandlingsmålen i denna forskning. Detektionshastigheten i detektionsfasen är 97,42 %. I erkännandefasen är igenkännandegraden 93,04 %. Systemets totala noggrannhet är 92,47 %. För videosekvenser är den bästa noggrannheten 90,54%, och den genomsnittliga noggrannheten är 80,17%. Den genomsnittliga beräkningstiden är 51,86 millisekunder per ram. Det föreslagna systemet kan inte bara övervinna låg belysning och rik röd färg runt vägskyltar problem, men också erbjuda hög detektionshastighet och hög datorprestanda.
En två-stegs fuzzy inference modell introducerades av Lin et al. REF för att upptäcka vägskyltar från en videoram och SVM användes för att identifiera vägskyltar.
7,492,970
Road Sign Recognition with Fuzzy Adaptive Pre-Processing Models
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Engineering']}
83,238
En modulär-specialiserad etikettutbredningsalgoritm (LPAm) för att upptäcka nätverksgemenskaper föreslogs nyligen. Denna lovande algoritm erbjuder några önskvärda egenskaper. Men LPAm föredrar gemenskap uppdelningar där alla samhällen är lika i total grad och därmed är det benägna att fastna i fattiga lokala maxima i modularitetsutrymmet. För att fly lokala maxima, använder vi en multisteg girig agglomerativ algoritm (MSG) som kan slå samman flera par av samhällen åt gången. Genom att kombinera LPAm och MSG föreslår vi en avancerad modulär-specialiserad etikettutbredningsalgoritm (LPAm+). Experiment visar att LPAm+ framgångsrikt upptäcker samhällen med högre modularitetsvärden än vad som någonsin rapporterats i två vanliga realtidsnätverk. Dessutom erbjuder LPAm+ en rättvis kompromiss mellan noggrannhet och hastighet.
Liu och Murata REF analyserade en modularityspecialized etikettutbredningsalgoritm (LPAm) för att upptäcka nätverk gemenskaper.
118,522,282
Advanced modularity-specialized label propagation algorithm for detecting communities in networks
{'venue': 'Physica A: Statistical Mechanics and its Applications, Volume 389, Issue 7, 1 April 2010, Pages 1493-150', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Physics']}
83,239
Neurala nätverk är beroende av konvolutioner för att aggregera rumslig information. Men rumsliga konvolutioner är dyra när det gäller modellstorlek och beräkning, som båda växer kvadratiskt med avseende på kärnstorlek. I detta dokument presenterar vi en parameterfri, FLOP-fri "shift"-operation som ett alternativ till rumsliga konvolutioner. Vi säkrar skift och punktvisa konvolutioner för att konstruera end-to-end training-baserade moduler, med en hyperparameter som karakteriserar avvägningen mellan noggrannhet och effektivitet. För att visa verksamhetens effektivitet ersätter vi ResNets 3x3-konvolutioner med skiftbaserade moduler för förbättrad CI-FAR10- och CIFAR100-noggrannhet med 60 % färre parametrar; vi demonstrerar dessutom verksamhetens motståndskraft mot parameterreduktion på ImageNet, outperforming ResNet familjemedlemmar. Vi visar slutligen skiftoperationens tillämplighet över domäner, vilket ger en stark prestanda med färre parametrar för bildklassificering, ansiktsverifiering och stilöverföring.
ShiftNet REF föreslår skiftoperationen som interleaded med punktvisa konvolutioner för att ersätta dyra rumsliga konvolutioner.
38,943,488
Shift: A Zero FLOP, Zero Parameter Alternative to Spatial Convolutions
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
83,240
Kopplingen mellan påverkan, definierad som förmågan till sentimental upphetsning från ett budskaps sida, och viralitet, definierad som sannolikheten för att den skickas med, är av betydande teoretisk och praktisk betydelse, t.ex. för viral marknadsföring. En kvantitativ studie av e-post av artiklar från NY Times (Berger och Milkman, 2010) finner en stark koppling mellan positiv påverkan och viralitet, och utifrån psykologiska teorier dras slutsatsen att detta förhållande är universellt giltigt. Slutsatsen tycks stå i kontrast till den klassiska spridningsteorin i nyhetsmedia (Galtung och Ruge, 1965) som betonar negativ påverkan som främjande av förökning. I detta dokument undersöker vi den uppenbara paradoxen i en kvantitativ analys av informationsspridningen på Twitter. Twitter är intressant i detta sammanhang eftersom det har visat sig att presentera både sociala och nyhetsmedier (Kwak et al., 2010). Det grundläggande måttet på viralitet i Twitter är sannolikheten för retweet. Twitter skiljer sig från e-post i det att retweeting inte beror på redan existerande sociala relationer, men ofta förekommer bland främlingar, så i detta avseende Twitter kan vara mer lik traditionella nyhetsmedier. Vi antar därför att negativt nyhetsinnehåll är mer sannolikt att bli återweeted, medan för icke-nyheter tweets positiva känslor stöder viralitet. För att testa hypotesen analyserar vi tre corpora: Ett komplett urval av tweets om COP15 klimattoppen, ett slumpmässigt urval av tweets, och en allmän text corpus inklusive nyheter. Den senare gör det möjligt för oss att utbilda en klassificerare som kan skilja tweets som bär nyheter och icke-nyheter information. Vi lägger fram bevis för att negativa känslor ökar viraliteten i nyhetssegmentet, men inte i non-news-segmentet. Vi drar slutsatsen att förhållandet mellan påverkan och viralitet är mer komplext än förväntat baserat på resultaten från Berger och Milkman (2010), kort sagt "om du vill bli citerad: Söt prata med dina vänner eller servera dåliga nyheter till allmänheten". Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Hansen m.fl. undersökte egenskaperna hos tweets som samlar ett stort antal retweets, analysera en datauppsättning på 210.000 tweets om 2009 FN:s klimatkonferens, samt ett slumpmässigt urval av cirka 350.000 tweets från 2010 REF.
15,358,164
Good Friends, Bad News - Affect and Virality in Twitter
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']}
83,241
Abstract-Mobile-edge computing (MEC) framträder som ett lovande paradigm för att förbättra kvaliteten på beräkningsupplevelsen för mobila enheter. Ändå, utformningen av beräkning uppgift schemaläggning politik för MEC system oundvikligen möter en utmanande två-tids stokastisk optimering problem. I den större tidsskalan bör man särskilt besluta om man ska utföra en uppgift lokalt på den mobila enheten eller om man ska avlasta en uppgift till MEC-servern för molndata, medan överföringspolicyn för uppgiftsinmatningsdata i den mindre tidsskalan bör anpassas till kanalsidans information. I detta dokument antar vi en Markov-beslutsprocess för att hantera detta problem, där beräkningsuppgifterna är schemalagda baserat på kötillståndet för uppgiftsbufferten, genomförandetillståndet för den lokala bearbetningsenheten samt överföringsenhetens tillstånd. Genom att analysera den genomsnittliga fördröjningen av varje uppgift och den genomsnittliga strömförbrukningen hos den mobila enheten, formulerar vi ett energibegränsat fördröjningsminimeringsproblem, och föreslår en effektiv endimensionell sökalgoritm för att hitta den optimala schemaläggningspolicyn för uppgiften. Simuleringsresultat tillhandahålls för att visa förmågan hos den föreslagna optimala stokastiska strategin för schemaläggning av uppgifter för att uppnå en kortare genomsnittlig fördröjning av genomförandet jämfört med baslinjepolitiken.
Ett tillvägagångssätt för att minimera förseningar föreslogs i REF; detta antog en Markov-beslutsprocess för att hantera överföringsbeslut, som inkluderar där beräkningsuppgifterna är schemalagda baserat på kötillståndet för uppgiftsbufferten, genomförandetillståndet för den lokala bearbetningsenheten och överföringsenhetens tillstånd.
16,521,756
Delay-Optimal Computation Task Scheduling for Mobile-Edge Computing Systems
{'venue': '2016 IEEE International Symposium on Information Theory (ISIT)', 'journal': '2016 IEEE International Symposium on Information Theory (ISIT)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,242
Abstract-Behavioral ekonomi säger oss att känslor kan djupt påverka individuellt beteende och beslutsfattande. Gäller detta även för samhällen i stort, dvs. Kan samhällen uppleva stämningstillstånd som påverkar deras kollektiva beslutsfattande? I förlängningen är den allmänna stämningen korrelerad eller till och med prediktiv för ekonomiska indikatorer? Här undersöker vi om mätningar av kollektiva stämningstillstånd som härrör från storskaliga Twitter-flöden är korrelerade till värdet av Dow Jones Industrial Genomsnitt (DJIA) över tid. Vi analyserar textinnehållet i dagliga Twitter-flöden av två stämningsspårningsverktyg, nämligen OpinionFinder som mäter positivt vs. negativt humör och Google-Profile of Mood States (GPOMS) som mäter humör i termer av 6 dimensioner (Kalm, Alert, Sure, Vital, Kind, and Happy). Vi korsvaliderar de resulterande tidsserierna genom att jämföra deras förmåga att upptäcka allmänhetens svar på presidentvalet och Thanksgiving-dagen 2008. En Granger kausalitetsanalys och en Själv-Organizing Fuzzy Neural Network används sedan för att undersöka hypotesen att allmänhetens humörtillstånd, mätt genom opinionsbildare och GPOMS stämningstidsserie, är prediktiva för förändringar i DJIA slutvärden. Våra resultat visar att noggrannheten i DJIA förutsägelser kan förbättras avsevärt genom att inkludera specifika offentliga stämning dimensioner men inte andra. Vi finner en noggrannhet på 87,6% i att förutsäga den dagliga upp och ner förändringar i slutvärdena för DJIA och en minskning av medelvärdet procentfel med mer än 6%. Index Villkor-stock marknadsförutsägelse -twitter -mood analys.
al som använde dimensioner av Google-Profil av Mood States för att återspegla förändringar i stängningspriset för DJIA REF.
14,727,513
Twitter mood predicts the stock market
{'venue': 'Journal of Computational Science, 2(1), March 2011, Pages 1-8', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
83,243
Att lära sig lokalisera objekt med minimal övervakning är ett viktigt problem i datorseende, eftersom stora fullt kommenterade dataset är extremt dyra att få. I detta dokument föreslår vi en ny metod som uppnår detta mål med endast bildnivåmärkning av om objekten är närvarande eller inte. Vårt tillvägagångssätt kombinerar ett diskriminerande submodulärt omslagsproblem för att automatiskt upptäcka en uppsättning positiva objektfönster med en utjämnad latent SVM-formulering. Den senare gör det möjligt för oss att utnyttja effektiva kvasiNewton optimeringstekniker. Våra experiment visar att det föreslagna tillvägagångssättet ger en relativ förbättring på 50 % av den genomsnittliga precisionen jämfört med den nuvarande toppmoderna upptäckten av PASCAL VOC 2007.
Mer nyligen, Song et al. REF använder MIL för att lokalisera objekt med binära bildnivåetiketter (är objektet som finns i bilden eller inte).
17,629,679
On learning to localize objects with minimal supervision
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,244
Interact hosting centers betjänar flera service webbplatser från en gemensam hårdvarubas. I detta dokument presenteras utformningen och genomförandet av en arkitektur för resurshantering i ett hostingcenters operativsystem, med tonvikt på energi som en drivande resurshanteringsfråga för stora serverkluster. Målet är att tillhandahålla serverresurser för samvärdiga tjänster på ett sätt som automatiskt anpassar sig till erbjuden belastning, förbättrar energieffektiviteten hos serverdammare genom att dynamiskt ändra den aktiva serveruppsättningen och reagera på avbrott i strömförsörjningen eller termiska händelser genom att försämra servicen i enlighet med förhandlade servicenivåavtal. Vårt system bygger på en ekonomisk strategi för att hantera delade serverresurser, där tjänster "bid" för resurser som en funktion av levererad prestanda. Systemet övervakar kontinuerligt belastning och planerar resurstilldelningar genom att uppskatta värdet av deras effekter på tjänstens prestanda. En girig resursfördelningsalgoritm justerar resurspriserna för att balansera utbud och efterfrågan, och allokerar resurser till deras mest effektiva användning. En omkonfigurerbar server som byter infrastruktur styr begäran om trafik till servrarna som tilldelas varje tjänst. Experimentella resultat från en prototyp bekräftar att systemet anpassar sig till erbjuden belastning och resurstillgänglighet, och kan minska serverens energianvändning med 29% eller mer för en typisk webbbelastning.
REF använde en nyttofunktionsmetod för energi- och serverresurser i stora datacenter.
8,089,507
Managing energy and server resources in hosting centers
{'venue': "SOSP '01", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,245
I detta dokument föreslås en metod för att mäta semantisk likhet mellan ord som ett nytt verktyg för textanalys. Likheten mäts på ett semantiskt nätverk konstruerat systematiskt från en delmängd av det engelska lexikonet LDOCE (Longman Dictionary of Contemporary English). Spridning aktivering på nätverket kan direkt beräkna likheten mellan två ord i Longman Defining Vocabulary, och indirekt likheten av alla andra ord i LDOCE. Likheten representerar styrkan i den lexiska sammanhållningen eller det semantiska förhållandet och ger också värdefull information om texternas likhet och samstämmighet.
REF ger en strategi för uppbyggnad av tvetydiga semantiska nätverk från glans i Longman Dictionary of Contemporary English (LDOCE).
813,476
Similarity Between Words Computed By Spreading Activation On An English Dictionary
{'venue': 'Conference Of The European Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,246
Redigeringsavståndet (alias Levenshtein-avståndet) mellan två strängar definieras som minsta antal tillägg, raderingar eller substitutioner av symboler som behövs för att omvandla en sträng till en annan. Problemet med att beräkna redigeringsavståndet mellan två strängar är en klassisk beräkningsuppgift, med en välkänd algoritm baserad på dynamisk programmering. Tyvärr, alla kända algoritmer för detta problem körs i nästan kvadratisk tid. I detta dokument ger vi bevis för att de nära-kvadratiska körtidsgränser som är kända för problemet med datorredigering avstånd kan vara snäv. Specifikt visar vi att om redigeringsavståndet kan beräknas i tid O(n 2−δ ) för vissa konstant δ > 0, då tillfredsställelsen av konjunktiva normala formformler med N variabler och M klausuler kan lösas i tid M O(1) 2 (1− )N för en konstant > 0. Det senare resultatet skulle bryta mot Strong Exponential Time Hypotes, som postulerar att sådana algoritmer inte finns.
För tidsgränser visar Backurs och Indyk REF att den starka Exponential Time Hypotesen innebär att den allmänna redigeringen av avståndsproblem inte kan lösas i tid bättre än n 2".
11,438,865
Edit Distance Cannot Be Computed in Strongly Subquadratic Time (unless SETH is false)
{'venue': "STOC '15", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,247
Abstract-Cooperative reläing har föreslagits som en lovande överföringsteknik som effektivt skapar rumslig mångfald genom samarbetet mellan rumsligt fördelade noder. För att uppnå effektiv kommunikation och samtidigt få full nytta av samarbete krävs dock fler interaktioner på högre protokolllager, särskilt MAC (Medium Access Control) och nätverkslager. Detta ignoreras i de flesta befintliga artiklar som främst fokuserar på fysiska (PHY)-lager återutläggning tekniker. I detta dokument föreslår vi en ny crosslayer ram som omfattar två nivåer av gemensam design-a MACnetwork cross-layer design för skotare val (eller benämns routing) och en MAC-PHY för relä urval-över symbol-wise varierande kanaler. Baserat på lokaliseringskunskap och stridsprocesser syftar det föreslagna tvärskiktsprotokollet, CoopGeo, till att ge ett effektivt, distribuerat tillvägagångssätt för att välja nästa humle och optimala reläer längs en kommunikationsväg. Simuleringsresultat visar att CoopGeo inte bara fungerar korrekt med varierande densiteter av noder, men presterar betydligt bättre än det befintliga protokollet BOSS i termer av paketfelhastighet, överföringsfel sannolikhet, och mättad genomströmning.
Baserat på lokaliseringskunskap och stridsprocesser syftar det föreslagna tvärskiktsprotokollet, CoopGeo REF, till att tillhandahålla ett effektivt, distribuerat tillvägagångssätt för att välja nästa humle och optimala reläer.
1,300,293
CoopGeo: A Beaconless Geographic Cross-Layer Protocol for Cooperative Wireless Ad Hoc Networks
{'venue': 'IEEE Transactions on Wireless Communications (2011)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,248
Hittills saknar trådlösa sensornätverk den mest kraftfulla mänskliga sense -visionen. Detta beror till stor del på två huvudsakliga problem: (1) tillgängliga trådlösa sensornoder saknar den bearbetningskapacitet och energiresurs som krävs för att effektivt bearbeta och kommunicera stora volymer av bilddata och (2) de tillgängliga protokollen ger inte den kökontroll och feldetekteringskapacitet som krävs för att minska felfrekvensen i paket och vidaresändningar till en nivå som lämpar sig för trådlösa sensornätverk. Detta dokument presenterar en innovativ arkitektur för objektextraktion och ett robust program-lager protokoll för energieffektiv bildkommunikation över trådlösa sensornätverk. Protokollet innehåller paket kökontrollmekanism med inbyggd CRC för att minska felfrekvensen för paket och därigenom öka datagenomströmningen. Till skillnad från andra protokoll för bildöverföring erbjuder det föreslagna protokollet flexibilitet för att justera bildpaketstorleken baserat på länkförhållanden. Den föreslagna processarkitekturen ger objektextraktion med hög hastighet med minimalt hårdvarubehov och låg strömförbrukning. Systemet utformades och genomfördes framgångsrikt på FPGA. Experimentella resultat som erhållits från ett nätverk av sensornoder som utnyttjar den föreslagna arkitekturen och tillämpnings-lager protokollet visar att denna nya metod är lämplig för att effektivt kommunicera multimediadata över trådlösa sensornätverk.
I motsats till bristen på bearbetningskapacitet och köstyrning och feldetektering kapacitet, Duc Minh Pham et al. I REF föreslogs en innovativ arkitektur för objektextraktion och ett robust tillämpningsskiktsprotokoll för energieffektiv bildkommunikation över WSN.
18,834,601
Object extraction scheme and protocol for energy efficient image communication over wireless sensor networks
{'venue': 'Comput. Networks', 'journal': 'Comput. Networks', 'mag_field_of_study': ['Computer Science']}
83,249
Vi presenterar en enkel och effektiv strategi för att införliva syntaktisk struktur i neural uppmärksamhet-baserade koddecoder modeller för maskinöversättning. Vi förlitar oss på graf-konvolutionella nätverk (GCN), en ny klass av neurala nätverk som utvecklats för att modellera graf-strukturerade data. Våra GCNs använder förutsagda syntaktiska beroende träd av käll meningar för att producera framställningar av ord (dvs. gömda tillstånd av kodaren) som är känsliga för deras syntaktiska områden. GCN tar ordrepresentationer som ingång och producerar ordrepresentationer som utgång, så att de enkelt kan införlivas som lager i standardkodare (t.ex. ovanpå dubbelriktade RNN eller konvolutionella neurala nätverk). Vi utvärderar deras effektivitet med engelsk-tyska och engelsk-tjeckiska översättningsexperiment för olika typer av kodare och observerar betydande förbättringar över deras syntax-agnostiska versioner i alla ansedda inställningar.
REF matade källberoende träd till en graf konvolutionell kodare.
6,206,777
Graph Convolutional Encoders for Syntax-aware Neural Machine Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,250
Vi anser att problemet med distribuerad upptäckt över en multiaccess kanal. Om vi antar ett slumpmässigt antal sensorer som sänder sina observationer med hjälp av Type Based Multiple Access, härleder vi detektionsprestandan med hjälp av Large Aviations Princip som det genomsnittliga antalet sensorer går till oändlighet. Vi karakteriserar prestandan i form av felexponenter. Vi jämför med fallet när antalet sensorer är deterministiskt. Vi generaliserar detta system till flera samlingar, föreslår en minimal Sum-Rate detektor och karakteriserar dess fel exponenter.
I REF föreslog vi TBRA som ett multiaccesssystem för icke-noll genomsnittliga blekningskanaler, med slumpmässigt antal sensorer.
9,975,243
A Large Deviation Analysis of Detection Over Multi-Access Channels with Random Number of Sensors
{'venue': '2006 IEEE International Conference on Acoustics Speech and Signal Processing Proceedings', 'journal': '2006 IEEE International Conference on Acoustics Speech and Signal Processing Proceedings', 'mag_field_of_study': ['Computer Science']}
83,251
I detta dokument siktar vi på noll-shot klassificering, det vill säga visuell igenkänning av en osynlig klass genom att använda kunskapsöverföring från kända klasser. Vårt huvudsakliga bidrag är COSTA, som utnyttjar samtidiga visuella begrepp i bilder för kunskapsöverföring. Dessa ömsesidiga beroenden uppstår naturligt mellan begrepp, och är lätta att få från befintliga annoteringar eller web-search hit räknas. Vi uppskattar en klassificering för en ny etikett, som en viktad kombination av relaterade klasser, med hjälp av co-occurences för att definiera vikten. Vi föreslår olika mått för att utnyttja dessa kooccurrences, och en regressionsmodell för att lära sig en vikt för varje relaterad klass. Vi visar också att våra noll-shot klassificerare kan fungera som föregångare för få-shot lärande. Experiment på tre multi-märkta dataset visar att våra föreslagna noll-shot metoder, närmar sig och ibland överträffar fullt övervakade SVMs. Vi drar slutsatsen att cooccurence-statistik räcker för noll-shot-klassificering.
REF utvecklar ett tillvägagångssätt som är specifikt inriktat på bilder som fokuserar på att utnyttja samtidiga visuella begrepp i bilder för kunskapsöverföring.
9,214,350
COSTA: Co-Occurrence Statistics for Zero-Shot Classification
{'venue': '2014 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2014 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
83,252
Överföra lärande har uppnått lovande resultat genom att utnyttja kunskap från källdomänen för att kommentera måldomänen som har få eller inga etiketter. Befintliga metoder försöker ofta minimera skillnaderna mellan olika domäner, t.ex. marginalfördelningen, den villkorade fördelningen eller båda. Dessa två avstånd behandlas dock ofta lika i befintliga algoritmer, vilket kommer att resultera i dålig prestanda i verkliga tillämpningar. Dessutom förutsätter befintliga metoder vanligtvis att datasetet är balanserat, vilket också begränsar deras prestanda på obalanserade uppgifter som är ganska vanliga i verkliga problem. För att ta itu med problemet med distributionsanpassning föreslår vi i detta dokument en ny metod för överföringslärande, kallad Balanced Distribution Adaptation (BDA), som på ett anpassningsbart sätt kan dra nytta av de marginella och villkorade fördelningsskillnadernas betydelse, och flera befintliga metoder kan behandlas som särskilda fall av BDA. Baserat på BDA, föreslår vi också en ny viktad Balanced Distribution Adaptation (W-BDA) algoritm för att ta itu med problemet med klassobalans i överföringslärande. W-BDA tar inte bara hänsyn till fördelningsanpassningen mellan domäner utan ändrar också på ett adaptivt sätt vikten av varje klass. För att utvärdera de föreslagna metoderna genomför vi omfattande experiment på flera överföringsutbildningsuppgifter, som visar effektiviteten hos våra föreslagna algoritmer över flera state-of-the-art metoder.
Med tanke på balansen mellan marginalfördelning och villkorlig fördelning föreslår BDA Ref en balansfaktor för att utnyttja betydelsen av olika distributioner.
6,480,652
Balanced Distribution Adaptation for Transfer Learning
{'venue': '2017 IEEE International Conference on Data Mining (ICDM)', 'journal': '2017 IEEE International Conference on Data Mining (ICDM)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,253
Genom att överbrygga "realitetsgapet" som separerar simulerad robotik från experiment på hårdvara kan robotforskningen påskyndas genom förbättrad datatillgänglighet. Detta papper utforskar domän randomisering, en enkel teknik för att träna modeller på simulerade bilder som överförs till verkliga bilder genom att randomisera rendering i simulatorn. Med tillräcklig variation i simulatorn, kan den verkliga världen visas för modellen som bara en annan variation. Vi fokuserar på uppgiften att objekt lokalisering, som är en språngbräda till allmänna robotiska manipulation färdigheter. Vi finner att det är möjligt att träna en verklig objektdetektor som är exakt till 1,5 cm och robust till distraktorer och partiella ocklusioner med endast data från en simulator med icke-realistiska slumpmässiga texturer. För att visa våra detektorers kapacitet, visar vi att de kan användas för att utföra grepp i en rörig miljö. Såvitt vi vet är detta den första framgångsrika överföringen av ett djupt neuralt nätverk som endast utbildats på simulerade RGB-bilder (utan förutbildning på riktiga bilder) till den verkliga världen för robotkontroll.
Domän randomisering hypoteser att tillräckligt variabilitet i förstärkning för simulerade bilder kommer att generalisera till verkliga bilder REF.
2,413,610
Domain randomization for transferring deep neural networks from simulation to the real world
{'venue': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'journal': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
83,254
När det gäller kommunikationer för energiupptagning överför användarna meddelanden med hjälp av energi som skördats från naturen under kommunikationens gång. Med en optimal sändningspolicy beror systemets prestanda endast på energiankomstprofilerna. I detta dokument introducerar vi begreppet energisamarbete, där en användare trådlöst överför en del av sin energi till en annan energiskördare. Detta gör det möjligt att forma och optimera den energi som anländer till den energimottagande noden, och förbättrar den totala systemprestandan, trots den förlust som uppstår vid energiöverföring. Vi överväger flera grundläggande fleranvändarnätverksstrukturer med energiupptagning och trådlös energiöverföringskapacitet: reläkanal, tvåvägskanal och flera accesskanaler. Vi bestämmer energihanteringspolicyer som maximerar systemgenomströmningen inom en given varaktighet med hjälp av en Lagrangian formulering och de resulterande KKT optimala förhållanden. Vi utvecklar en tvådimensionell riktningsvattenfyllningsalgoritm som optimalt kontrollerar flödet av skördad energi i två dimensioner: med tiden (från tidigare till framtida) och bland användare (från energiöverföring till energimottagning) och visar att en generaliserad version av denna algoritm uppnår gränsen för kapacitetsregionen i tvåvägskanalen.
Inom ramen för trådlösa kommunikationsnät har författarna i REF infört begreppet energisamarbete där användarna delar en del av sin skakade energi för att forma och optimera den energi som anländer för att förbättra den totala prestandan.
5,990,062
Energy Cooperation in Energy Harvesting Communications
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,255
Denna undersökning ger en strukturerad och omfattande översikt över forskning om säkerhet och integritet i dator- och kommunikationsnät som använder spelteoretiska metoder. Vi presenterar en utvald uppsättning verk för att belysa tillämpningen av spelteorin för att ta itu med olika former av säkerhets- och integritetsproblem i datornätverk och mobila applikationer. Vi organiserar de presenterade verken i sex huvudkategorier: säkerhet för fysiska och MAC-lager, säkerhet för självorganiserande nätverk, intrångsdetekteringssystem, anonymitet och integritet, ekonomi för nätverkssäkerhet och kryptografi. I varje kategori identifierar vi säkerhetsproblem, spelare och spelmodeller. Vi sammanfattar de viktigaste resultaten av utvalda arbeten, t.ex. jämviktsanalys och utformning av säkerhetsmekanismer. Dessutom ger vi en diskussion om fördelar, nackdelar och framtida riktning att använda spelteori på detta område. I denna undersökning, är vårt mål att ingjuta i läsaren en ökad förståelse av olika forskningsstrategier i att tillämpa spelteoretiska metoder för nätverkssäkerhet. Denna undersökning kan också hjälpa forskare från olika områden att utveckla spelteoretiska lösningar på aktuella och framväxande säkerhetsproblem i datornätverk.
En undersökning av tillämpningen av spelteorin för nätsäkerhet baserad på målen i ett nätverk finns på REF.
207,203,993
Game theory meets network security and privacy
{'venue': 'CSUR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,256
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
I R-CNN-ramverket REF definieras ett RPN för att generera det förslag som läggs fram på ett fullständigt konvolutionellt sätt och som återanvänder ryggradsberäkningarna.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,257
I en multi-armad bandit problem, en online algoritm väljer från en uppsättning strategier i en sekvens av n prövningar för att maximera den totala utbetalningen av de valda strategierna. Medan utförandet av bandit algoritmer med en liten ändlig strategi uppsättning är ganska väl förstådd, bandit problem med stora strategiuppsättningar är fortfarande ett ämne för mycket aktiv utredning, motiverade av praktiska tillämpningar såsom online auktioner och webbannonser. Målet med sådan forskning är att identifiera breda och naturliga klasser av strategiuppsättningar och vinstfunktioner som möjliggör utformning av effektiva lösningar. I detta arbete studerar vi en mycket allmän miljö för multi-armad bandit problem där strategierna bildar ett metriska utrymme, och payoff-funktionen uppfyller en Lipschitz villkor med avseende på metriska. Vi hänvisar till detta problem som Lipschitz MAB-problemet. Vi presenterar en fullständig lösning på det flerarmade problemet i denna miljö. Det vill säga, för varje metriska utrymme (L, X) definierar vi en isometry invariant MaxMinCOV(X) som begränsas från under prestanda Lipschitz MAB algoritmer för X, och vi presenterar en algoritm som kommer godtyckligt nära att möta denna gräns. Dessutom ger vår teknik ännu bättre resultat för godartade payoff-funktioner.
I REF, för armar definieras inom ett metriska utrymme och uppfyller en Lipschitz tillstånd, författarna hittade en optimal algoritm som matchar bästa möjliga ånger förhållandet.
1,304,870
Multi-armed bandits in metric spaces
{'venue': "STOC '08", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,258
Programkänslighet, även känd som Lipschitz kontinuitet, beskriver hur små förändringar i ett programs ingång leder till avgränsade förändringar i utdata. Vi föreslår en genomsnittlig begrepp av programkänslighet för probabilistiska program — förväntade känslighet — att genomsnitt en distans funktion över en probabilistisk koppling av två output distributioner från två liknande ingångar. Genom att variera avståndet återvinner den förväntade känsligheten användbara föreställningar om probabilistisk funktionskänslighet, inklusive stabilitet i maskininlärningsalgoritmer och konvergens av Markovkedjor. Dessutom uppfyller den förväntade känsligheten rena sammansättningsegenskaper och kan användas för formell kontroll. Vi utvecklar en relationell programlogik som kallas EpRHL för att bevisa förväntade känslighetsegenskaper. Vår logik innehåller två huvudidéer. För det första uttrycks relationsförutsättningar och postvillkor med hjälp av avstånd, en verkligt värderad generalisering av typiska booleanska-värderade (relationella) påståenden. För det andra tolkas domarna i termer av förväntningskoppling, en ny kvantitativ generalisering av probabilistiska kopplingar som stöder kompositionstänkande. Vi visar vår logik på exempel som är utom räckhåll för tidigare relationslogik. Vårt huvudexempel formaliserar den stokastiska lutningsmetodens enhetliga stabilitet. Dessutom visar vi oss hastig blandning för en probabilistisk modell av befolkningsdynamik. Vi utökar också vår logik med en transitivitetsprincip för förväntan kopplingar för att fånga vägen koppling bevis teknik av Bubley och Dyer [1997], och formalisera snabb blandning av Glauber dynamik från statistisk fysik.
Det senaste arbetet av REF utvecklar en programlogik för resonemang om en probabilistisk uppfattning om känslighet baserad på kopplingar och Kantorovich metrisk.
31,786,714
Proving expected sensitivity of probabilistic programs
{'venue': 'PACMPL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,259
Ett rykte definieras vanligen som ett uttalande vars sanna värde är okontrollerbart. Rykten kan sprida felaktig information (falsk information) eller desinformation (deliberately falsk information) på ett nätverk av människor. Att identifiera rykten är avgörande i sociala medier på nätet där stora mängder information lätt sprids över ett stort nätverk av källor med okontrollerad auktoritet. I den här artikeln tar vi upp problemet med upptäckt av rykten i mikrobloggar och undersöker effektiviteten hos tre kategorier av funktioner: innehållsbaserade, nätverksbaserade och mikrobloggspecifika memes för korrekt identifiering av rykten. Dessutom visar vi hur dessa funktioner också är effektiva för att identifiera missbildare, användare som stöder ett rykte och ytterligare hjälpa det att sprida sig. Vi utför våra experiment på mer än 10.000 manuellt kommenterade tweets som samlats in från Twitter och visar hur vår hämtningsmodell uppnår mer än 0,95 i genomsnittlig genomsnittlig precision (MAP). Slutligen tror vi att vår datauppsättning är den första storskaliga datauppsättningen om ryktesupptäckt. Det kan öppna nya dimensioner i analys online desinformation och andra aspekter av microblog konversationer.
Qazvinian m.fl. REF tar itu med detta problem genom att undersöka effektiviteten hos tre kategorier av funktioner: innehållsbaserade, nätverksbaserade och mikrobloggspecifika memer.
14,124,213
Rumor has it: Identifying Misinformation in Microblogs
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,260
Abstrakt. Feature-orienterad programmering (FOP) implementerar programvara produktlinjer genom sammansättning av funktionsmoduler. Den bygger på principerna om en stegvis utveckling. Featuremoduler är avsedda att hänvisa till exakt en produktfunktion och kan bara utöka befintliga implementationer. För att ge mer flexibilitet för att genomföra produktlinjer för programvara föreslår vi deltaorienterad programmering (DOP) som ett nytt programmeringsspråk. En produktlinje representeras av en kärnmodul och en uppsättning deltamoduler. Kärnmodulen ger en implementation av en giltig produkt som kan utvecklas med väletablerade enkla tillämpningstekniker. Deltamoduler anger ändringar som ska tillämpas på kärnmodulen för att implementera ytterligare produkter genom att lägga till, ändra och ta bort kod. Tillämpningsvillkor kopplade till deltamoduler tillåter explicit hantering av kombinationer av funktioner. En produktimplementation för en viss funktionskonfiguration genereras genom att stegvis tillämpa alla deltamoduler med giltigt applikationsvillkor på kärnmodulen. För att utvärdera potentialen hos DOP jämför vi den med FOP, både konceptuellt och empiriskt.
Delta-orienterad programmering är delvis baserad på superimposition REF.
2,000,112
Delta-oriented programming of software product lines
{'venue': 'IN: PROC. OF 15TH SOFTWARE PRODUCT LINE CONFERENCE (SPLC 2010', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,261
För kinesisk POS-märkning är ordsegmentering ett preliminärt steg. För att undvika felspridning och förbättra segmentering genom att använda POS-information kan segmentering och taggning utföras samtidigt. En utmaning för detta gemensamma tillvägagångssätt är det stora kombinerade sökområdet, vilket gör effektiv avkodning mycket svårt. Den senaste forskningen har undersökt integreringen av segmentering och POS-märkning, genom avkodning under begränsade versioner av hela det kombinerade sökutrymmet. I detta dokument föreslår vi en gemensam modell för segmentering och POS-märkning som inte medför några hårda begränsningar för samspelet mellan ord- och POS-information. Snabb avkodning uppnås genom att använda en ny sökalgoritm för flera strålar. Systemet använder en diskriminativ statistisk modell, tränad med hjälp av den generaliserade perceptronalgoritmen. Den gemensamma modellen ger en felminskning av segmenteringsnoggrannheten på 14,6 % och en felminskning av taggningsnoggrannheten på 12,2 % jämfört med den traditionella rörledningen.
REF föreslog en stegvis gemensam segmentering och POS-märkningsmodell, med en effektiv funktionsuppsättning för kinesiska.
105,219
Joint Word Segmentation and POS Tagging Using a Single Perceptron
{'venue': 'Proceedings of the 9th SIGdial Workshop on Discourse and Dialogue', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,262
Ett antal katastrofer på olika platser av planeten har orsakat en omfattande förlust av liv, allvarliga skador på fastigheter och miljön, samt en enorm chock för de överlevande. För räddnings- och räddningsinsatser skickas räddningspersonal omedelbart till katastrofområdena. Oavsiktlig och robust kommunikation under räddningsinsatserna är av största vikt. Trots detta har flera rapporter visat att den nuvarande tekniken, efter många förödande händelser, misslyckades med att stödja den uppdragskritiska kommunikationen, vilket ledde till ytterligare förluster av liv. Bristande effektivitet i den nuvarande kommunikation som används för katastrofinsatser omfattar bristande teknisk kompatibilitet mellan olika jurisdiktioner och hög sårbarhet på grund av deras centraliserade infrastruktur. I denna artikel föreslår vi en flexibel nätverksarkitektur som ger en gemensam nätverksplattform för heterogena nätverk med flera operatörer, för samverkan i nödsituationer. Ett trådlöst nätnät är huvuddelen av den föreslagna arkitekturen, och detta ger ett reservnät vid nödsituationer. Vi beskriver först bristerna och begränsningarna i den nuvarande tekniken, och sedan tar vi upp frågor som rör tillämpningar och funktioner som ett framtida nödnätverk bör stödja. Dessutom beskriver vi de nödvändiga kraven för en flexibel, säker, robust och QoS-medveten flerfunktionsoperatörsarkitektur, och sedan föreslår vi flera system som kan antas av vår föreslagna arkitektur för att uppfylla dessa krav. Dessutom föreslår vi flera metoder för att återanvända kommunikationsmedel som ägs av oberoende individer för att ge stöd vid nödsituationer. För att undersöka möjligheten att överföra multimedia över ett trådlöst nät mätte vi prestandan hos en videoströmningsapplikation i ett verkligt trådlöst nätverk med flera radionät, vilket visar att nätnäten kan uppfylla kraven för högkvalitativa videoöverföringar.
Rautela Ref har föreslagit en skalbar nätverksplattform som tillhandahåller en gemensam arkitektur för driftskompatibla och heterogena nätverk under katastrofer.
33,256,340
Ubiquitous robust communications for emergency response using multi-operator heterogeneous networks
{'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']}
83,263
ABSTRACT eScience och big data analytics applikationer står inför utmaningen att effektivt utvärdera komplexa frågor över stora mängder strukturerade textdata arkiverade i nätverkslagringslösningar. För att analysera sådana data i traditionella diskbaserade databassystem, måste det vara bulk laddad, en operation vars prestanda till stor del beror på trådhastigheten hos datakällan och hastigheten på datasänkan, dvs disketten. Eftersom hastigheten på nätverksadaptrar och diskar har stagnerat tidigare, har lastning blivit en stor flaskhals. De förseningar den orsakar är nu allmänt förekommande eftersom textformat är ett föredraget lagringsformat på grund av portabilitet. Men spelet har förändrats: ständigt ökande huvudminne kapacitet har främjat utvecklingen av in-minne databassystem och mycket snabb nätverksinfrastruktur är på gränsen till att bli ekonomiskt. Medan hårdvarubegränsningar för snabb lastning har försvunnit, nuvarande metoder för huvudminnesdatabaser misslyckas med att mätta de nu tillgängliga trådhastigheter på tiotals Gbit/s. Med Instant Loading bidrar vi med en ny CSV-laddningsmetod som möjliggör skalbar bulkbelastning vid trådhastighet. Detta uppnås genom att optimera alla faser av lastning för moderna super-skalar multi-core processorer. Stora huvudsakliga minneskapaciteter och Instant Loading underlättar därmed en mycket effektiv databehandlingsmodell som består av momentana belastnings-arbetslossningscykler över dataarkiv på en enda nod. När data har laddats behandlas uppdateringar och frågor effektivt med flexibilitet, säkerhet och hög prestanda i relationella huvudminnesdatabaser.
På andra sidan av rådata fråga, Instant Loading REF parallelliserar lastningsprocessen för huvudminne DBMS, erbjuder bulk lastning i nära-minne-bandbredd hastighet.
11,838,408
Instant Loading for Main Memory Databases
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
83,264
Den samlade rörelsen hos en fågelflock, en hjord landdjur eller en fiskskola är en vacker och välbekant del av naturen. Men denna typ av komplex rörelse ses sällan i datoranimering. I detta dokument utforskas ett tillvägagångssätt baserat på simulering som ett alternativ till att skriptera varje fågels stigar individuellt. Den simulerade flocken är en utveckling av ett partikelsystem, där de simulerade fåglarna är partiklarna. Den simulerade flockens samlade rörelse skapas av en distribuerad beteendemodell som liknar den som fungerar i en naturlig flock; fåglarna väljer sin egen kurs. Varje simulerad fågel genomförs som en oberoende aktör som navigerar enligt sin lokala uppfattning om den dynamiska miljön, lagarna i simulerad fysik som styr dess rörelse, och en uppsättning beteenden programmerade in i den av "animatorn". Den simulerade flockens samlade rörelse är resultatet av den täta interaktionen mellan de relativt enkla beteendena hos de enskilda simulerade fåglarna.
REF introducerade reaktiva beteenden för att simulera grupper av enkla varelser såsom flockar av fåglar, besättningar av landdjur, och skolor av fiskar.
546,350
Flocks, herds and schools: A distributed behavioral model
{'venue': "SIGGRAPH '87", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Geography']}
83,265
Nya studier visar att ett djupt neuralt nätverk kan lära överförbara funktioner som generaliserar väl till nya uppgifter för domänanpassning. Eftersom djupa funktioner så småningom övergår från allmän till specifik längs nätverket, sjunker funktionen överförbarhet avsevärt i högre lager med ökande domänavvikelse. Därför är det viktigt att formellt minska domänfördelen och förbättra överförbarheten i uppgiftsspecifika skikt. I detta dokument föreslår vi en ny Deep Adaptation Network (DAN) arkitektur, som generaliserar djupa konvolutionella neurala nätverk till domänanpassning scenariot. I DAN är dolda representationer av alla aktivitetsspecifika lager inbäddade i ett reproducerande kärna Hilbert-utrymme där de genomsnittliga inbäddningarna av olika domändistributioner uttryckligen kan matchas. Avvikelsen i domänen minskas ytterligare med hjälp av en optimal urvalsmetod med flera kernlar för genomsnittlig inbäddning av matchningar. DAN kan lära sig invarianta funktioner med förbättrad överförbarhet, och kan skala linjärt genom en opartisk uppskattning av kärnans inbäddning. Omfattande empiriska belägg visar att den föreslagna arkitekturen avsevärt överträffar de senaste resultaten på standardriktmärken för domänanpassning.
Att lära sig överförbara funktioner i höga lager av det neurala nätverket, Long et al. I REF föreslås ett nätverk för djup anpassning för att minimera den maximala genomsnittliga skillnaden mellan funktionerna.
556,999
Learning Transferable Features with Deep Adaptation Networks
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,266
En kanalyta är kuvertet till en enparametersset av sfärer med radier r(t) och centra m(t). Det visas att varje kanalyta till en rationell ryggradskurva m(t) och en rationell radiefunktion r(t) har rationella parametriseringar. Vi härleder algoritmer för beräkning av dessa parametriseringar och lägger särskild tonvikt på låggradiga representationer.
Det visades i REF att varje kanalyta med en rationell ryggradskurva (en uppsättning av alla centra av rörliga sfärer) och en rationell radie funktion har en rationell parameterisering.
9,205,043
Computing Rational Parametrizations of Canal Surfaces
{'venue': 'International Conference on Computational Science (2)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,267
Peer-to-peer (P2P) streaming försöker uppnå skalbarhet (som P2P-fildistribution) och samtidigt uppfylla realtid uppspelningskrav. Det är ett utmanande problem som fortfarande inte är välbegripligt. I den här artikeln beskriver vi en enkel stokastisk modell som kan användas för att jämföra olika nedladdningsstrategier med slumpmässiga peer selection. Baserat på denna modell studerar vi avvägningarna mellan stödd peer population, buffertstorlek och uppspelningskontinuitet. Vi studerar först två enkla strategier: Rarest First (RF) och Greedy. Den förra är en välkänd strategi för P2P-fildelning som ger god skalbarhet genom att försöka sprida bitar av en fil till så många jämlikar som möjligt. Den senare är en intuitivt rimlig strategi för att få brådskande bitar först för att maximera uppspelningskontinuitet från en kamrats lokala perspektiv. Men i verkligheten bör man ta hand om både skalbarhet och brådska. Med denna insikt föreslår vi en blandad strategi som uppnår det bästa av båda världarna. Dessutom kommer den blandade strategin med en adaptiv algoritm som kan anpassa sin buffertinställning till dynamisk peer population. Vi validerar vår analytiska modell med simulering. Slutligen diskuterar vi även modelleringsantaganden och modellens känslighet för olika parametrar och visar att vår modell är robust. Index Terms-Marginal sannolikhetsmodell, peer-to-peer (P2P), prestandaanalys, streaming, video.
Dessutom studerar de avvägningar mellan overlay storlek, buffert storlek och playout sannolikhet REF.
3,986,206
A simple model for chunk-scheduling strategies in P2P streaming
{'venue': 'TNET', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,268
Gemenskapens upptäckter i komplexa nätverk är ett intressant problem med ett antal tillämpningar, särskilt när det gäller kunskapsutvinning i sociala nätverk och informationsnätverk. Många stora nätverk saknar emellertid ofta en särskild samhällsorganisation på global nivå. I dessa fall, traditionella graf partitionering algoritmer misslyckas med att låta latent kunskap inbäddad i modulär struktur uppstår, eftersom de inför en top-down global vy av ett nätverk. Vi föreslår här en enkel lokal-första strategi för samhällets upptäckt, som kan presentera den modulära organisationen av verkliga komplexa nätverk. Detta uppnås genom att demokratiskt låta varje nod rösta på de samhällen som den ser omger den i sin begränsade syn på det globala systemet, d.v.s. dess ego grannskap, med hjälp av en etikettutbredningsalgoritm; slutligen, de lokala samhällena slås samman till en global samling. Vi testade denna intuition mot de toppmoderna överlappande och icke-överlappande metoderna för upptäckt i samhället, och fann att vår nya metod klart överträffar de andra i kvaliteten på de erhållna samhällena, utvärderade genom att använda de extraherade samhällena för att förutsäga metadata om noderna i flera verkliga nätverk. Vi visar också hur vår metod är deterministisk, helt inkrementell, och har en begränsad tids komplexitet, så att den kan användas på webbscale verkliga nätverk.
Den DEMON algoritm REF, till exempel, demokratiskt låter varje vertex rösta för de samhällen som den ser omger det i sin begränsade syn på det globala systemet med hjälp av en etikett utbredning algoritm, och sedan slår samman de lokala samhällena till en global samling.
5,319,024
DEMON: a Local-First Discovery Method for Overlapping Communities
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']}
83,269
Abstract-Medan LTE har brett ut sig för humantype tjänster, är det också en lovande lösning för kostnadseffektiv anslutning av smarta nät övervakningsutrustning. Detta är en typ av maskin-till-maskin-trafik (M2M) som huvudsakligen består av sporadiska upplänksöverföringar. I en sådan inställning begränsas inte mängden trafik som kan betjänas i en cell av datakapaciteten, utan snarare av signalbegränsningarna i den slumpmässiga åtkomstkanalen och kontrollkanalen. I detta dokument undersöker vi dessa begränsningar med hjälp av en detaljerad simulering av LTE-access reservation protokoll (ARP). Vi finner att 1) tilldela fler slumpmässiga tillträdesmöjligheter faktiskt kan försämra prestanda och 2) den ytterligare signalering som följer ARP har mycket stor inverkan på kapaciteten i fråga om antalet understödda enheter; vi observerade en minskning av kapaciteten med nästan en faktor 3. Detta tyder på att en lättviktsmetod, med ett minskat antal signalerande meddelanden, måste beaktas i standardisering för M2M-tillämpningar. Dessutom föreslår vi en dragbar analytisk modell för att beräkna avbrottet som snabbt kan implementeras och utvärderas. Modellen står för funktionerna i slumpmässig åtkomst, kontrollkanal, upplänk och nedlänk datakanaler, samt vidaresändningar.
Begränsningar av signalbegränsningar i slumpmässiga åtkomst- och kontrollkanaler utforskas med LTE-access reservation protokollssimuleringar med maskin-till-maskin (M2M) trafik REF.
16,580,476
Assessment of LTE Wireless Access for Monitoring of Energy Distribution in the Smart Grid
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,270
En lovande applikationsdomän för Semantic Web-teknik är noteringen av produkter och tjänster på webben så att konsumenter och företag kan söka efter lämpliga leverantörer med hjälp av produkter och tjänster ontologier. Även om det har gjorts betydande framsteg när det gäller att utveckla ontologier för olika typer av produkter och tjänster, nämligen eClassOWL, tillhandahåller detta enbart inte de representationsmedel som krävs för e-handel på Semantic Web. Särskilt saknas en ontologi som gör det möjligt att beskriva förhållandet mellan (1) webbresurser, (2) erbjudanden som görs med hjälp av dessa webbresurser, (3) juridiska enheter, (4) priser, (5) villkor och ovan nämnda ontologier för produkter och tjänster (6). Till exempel måste vi kunna säga att en viss webbplats beskriver ett erbjudande om att sälja mobiltelefoner för en viss göra en modell till ett visst pris, att ett pianohus erbjuder underhåll för pianon som väger mindre än 150 kg, eller att ett biluthyrningsföretag hyr ut bilar av en viss fabrikat och modell från en uppsättning filialer över hela landet. I denna uppsats analyserar vi komplexiteten i produktbeskrivningen på Semantic Web och definierar GoodRelations ontology som täcker representationsbehoven i typiska affärsscenarier för varor och tjänster.
GoodRelations REF är en ontologi som utvecklats för e-handel för att beskriva produkter.
897,941
GoodRelations: An Ontology for Describing Products and Services Offers on the Web
{'venue': 'EKAW', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,271
I den här artikeln undersöker vi hur radiooegentlighet påverkar trådlösa sensornätverk. Radio oegentlighet är ett vanligt fenomen som uppstår från flera faktorer, såsom varians i RF sändande makt och olika väg förluster, beroende på riktningen för utbredning. Från våra experiment upptäcker vi att variansen i den mottagna signalstyrkan till stor del är slumpmässig; men den uppvisar en kontinuerlig förändring med gradvisa förändringar i riktning. Med empiriska data från MICA2- och MICAZ-plattformarna etablerar vi en radiomodell för simulering, kallad Radio Irregularity Model (RIM). Denna modell är den första som överbryggar skillnaden mellan de sfäriska radiomodeller som används av simulatorer och radiosignalernas fysiska verklighet. Med denna modell undersöker vi effekten av radiooegentlighet på flera övre skikt protokoll, inklusive MAC, routing, lokalisering och topologi kontroll. Våra resultat visar att radiooegentlighet har en relativt större inverkan på routingskiktet än MAC-skiktet. Det visar också att radiooegentlighet leder till större lokaliseringsfel och gör det svårare att upprätthålla kommunikationskonnektivitet i topologikontroll. För att ta itu med dessa frågor lägger vi fram åtta lösningar för att hantera radiooegentlighet. Vi utvärderar tre av dem i detalj. Resultaten från både simuleringar och en testbädd visar att våra lösningar avsevärt förbättrar systemets prestanda i närvaro av radiooegentlighet.
Zhou m.fl. I REF föreslogs en RIM-modell för att uppskatta sambandets oegentlighet, och på grundval av modellen undersökte författaren radiooegentlighetens inverkan på MAC, routing och topologikontroll; den visade att oegentligheten har större inverkan på routingskiktet och topologikontrollen jämfört med MAC-skiktet.
8,746,993
Models and solutions for radio irregularity in wireless sensor networks
{'venue': 'TOSN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,272
Abstract-Eftersom textinnehållet på sociala medier online är mycket ostrukturerat, informellt och ofta felstavat, kan befintlig forskning om stötande språkdetektering på budskapsnivå inte korrekt upptäcka stötande innehåll. Samtidigt verkar offensivitetsdetektering på användarnivå vara en mer genomförbar metod, men det är ett underforskat område. För att överbrygga denna lucka föreslår vi Lexical Syntaktic Feature (LSF) arkitektur för att upptäcka stötande innehåll och identifiera potentiella stötande användare i sociala medier. Vi skiljer på pejoratives/profanities och obscenities bidrag till att bestämma stötande innehåll, och inför hand-authoring syntaktic regler för att identifiera namn-kalla trakasserier. I synnerhet införlivar vi en användares skrivstil, struktur och specifika cybermobbning innehåll som funktioner för att förutsäga användarens potential att skicka ut stötande innehåll. Resultaten från experimenten visade att vårt LSF-ramverk presterade betydligt bättre än befintliga metoder i stötande innehållsdetektering. Den uppnår precision på 98,24 % och erinrar om 94,34 % i detektion av straffoffensiv, samt precision på 77,9 % och återkallande av 77,8 % i detektion av användaroffensiver. Samtidigt är processhastigheten för LSF ungefär 10msek per mening, vilket tyder på potentialen för effektiv spridning i sociala medier.
Chen och Al. I REF föreslogs användning av en lexikal syntaktisk funktionsmetod för att upptäcka graden av offensivitet i kommentarerna och potentiellt stötande användare.
6,306,899
Detecting Offensive Language in Social Media to Protect Adolescent Online Safety
{'venue': '2012 International Conference on Privacy, Security, Risk and Trust and 2012 International Confernece on Social Computing', 'journal': '2012 International Conference on Privacy, Security, Risk and Trust and 2012 International Confernece on Social Computing', 'mag_field_of_study': ['Computer Science']}
83,273
Abstract-Business process modellering och management metoder används alltmer och avslöjas mellan organisationer som ett sätt att optimera och effektivisera verksamheten. Bland de olika befintliga modellspråken betonar vi Business Process Model and Notation (BPMN), som för närvarande finns i version 2.0. BPMN är en utbredd OMG-standard som faktiskt används antingen i akademin eller i organisationer. BPMN möjliggör modellering av affärsprocesser, men underlättar inte modellering av den informationsinfrastruktur som är inblandad i processen. Intresset för data och dess bevarande har dock ökat i BPMN:s senaste version. Syftet med detta dokument är att studera BPMN 2.0, särskilt om användningen och varaktigheten av data, och presentera en strategi för att få en tidig datamodell från affärsprocessen modellering, som sedan kan användas som en startdata modell i programvaruutvecklingsprocessen.
Cruz m.fl. I Ref föreslås en uppsättning regler för att generera en datamodell från affärsmodellen.
8,141,207
From Business Process Modeling to Data Model: A Systematic Approach
{'venue': '2012 Eighth International Conference on the Quality of Information and Communications Technology', 'journal': '2012 Eighth International Conference on the Quality of Information and Communications Technology', 'mag_field_of_study': ['Computer Science']}
83,274
Abstract-Vi anser att systemet där en källa slumpmässigt genererar statusuppdateringsmeddelanden och överför dem via ett nätverksmoln till den avsedda destinationen. Dessa uppdateringsmeddelande kan ta olika tider att passera nätverket, som vi modellerar som exponentiella servicetider, och kan resultera i paket som når destinationen i oordning, vilket gör några av de tidigare sändningarna föråldrade. Vi analyserar statusuppdateringsåldern för ett sådant system och visar att det spårar bra med simuleringsresultat.
Kam m.fl. REF undersökte den genomsnittliga AoI för ett mer komplext scenario, där de genererade statusuppdateringarna kan komma till destinationen utanför ordningen och de föråldrade statusuppdateringarna är föråldrade.
16,848,549
Age of information under random updates
{'venue': '2013 IEEE International Symposium on Information Theory', 'journal': '2013 IEEE International Symposium on Information Theory', 'mag_field_of_study': ['Computer Science']}
83,275
Peer-prediction är en mekanism som framkallar privat-hållen, icke-variabel information från egenintresserade agenter-formellt, sanningsberättande är en strikt Bayes Nash jämvikt av mekanismen. Den ursprungliga peer-prediction-mekanismen lider av två huvudsakliga begränsningar: 1) mekanismen måste känna till "vanliga föregångaren" av agenters signaler; 2) ytterligare oönskade och icke-sanna jämvikt existerar som ofta har en större förväntad vinst än den sanningsberättande jämvikten. En serie resultat har framgångsrikt försvagat den kända gemensamma tidigare antagande. Frågan om jämviktsmångfald är dock fortfarande en utmaning. I detta dokument tar vi upp de två ovannämnda problemen. I den miljö där en gemensam föregångare existerar men inte är känd för mekanismen visar vi (1) ett allmänt negativt resultat som gäller för en stor klass av mekanismer som visar sanningsberättande kan aldrig betala strikt mer i förväntan än en viss uppsättning av jämviktsbegrepp där medel kolliderar med att "märka" signalerna och berätta sanningen efter ommärkningssignaler; (2) ge en mekanism som inte har någon information om den vanliga tidigare men där sanningsberättandet betalar lika mycket i förväntan som varje ommärkning av jämvikten och betalar strikt mer än någon annan symmetrisk jämvikt; (3) dessutom i vår mekanism, om antalet agenser är tillräckligt stort, betalar sanningsberättande lika mycket som varje jämvikt nära en "ommärkning" jämvikt och betalar strikt mer än någon jämvikt som inte är nära en omvärderingsjämvikt.
Kong och Schoenebeck REF föreslår en detaljfri mekanism som bara kräver ett litet antal deltagare (i själva verket ≥ 6) och betalar sanningen bättre än någon annan symmetrisk jämvikt.
4,695,878
Equilibrium Selection in Information Elicitation without Verification via Information Monotonicity
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,276
Databasanvändare utforskar ofta stora datamängder genom att köra aggregerade frågor som projekterar data ner till ett mindre antal punkter och dimensioner, och visualisera resultaten. Ofta, sådana visualiseringar kommer att avslöja outliers som motsvarar fel eller överraskande funktioner i inmatningsdata som. Tyvärr, databaser och visualiseringssystem ger inte ett sätt att arbeta bakåt från en avvikande punkt till de gemensamma egenskaperna hos (eventuellt många) oaggregerade inmatning tuples som motsvarar den avvikande. Vi föreslår Scorpion, ett system som tar en uppsättning användarspecificerade avvikande punkter i ett aggregerat frågeresultat som indata och finner predikat som förklarar avvikelserna i fråga om egenskaperna hos de inmatning tuples som används för att beräkna de valda outlier resultaten. Närmare bestämt visar denna förklaring att när den tillämpas på inmatningsdata, orsakar avvikelserna att försvinna från produktionen. För att hitta sådana predikat utvecklar vi en uppfattning om påverkan av en predikat på en given utdata, och utformar flera algoritmer som effektivt söker efter maximal påverkan predikat över indata. Vi visar att dessa algoritmer snabbt kan hitta outliers i två verkliga dataset (från en sensor distribution och en kampanj finans dataset), och köra order av magnitud snabbare än en naiv sökalgoritm samtidigt som den ger jämförbar kvalitet på en syntetisk dataset.
Skorpion-systemet REF grundar sig på indata som förklaringar till en märkt uppsättning avvikande punkter i en aggregerad fråga över ett enda samband.
7,089,924
Scorpion: Explaining Away Outliers in Aggregate Queries
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
83,277
Abstract-Discriminativ modell lärande för bild denoisering har nyligen dragit stor uppmärksamhet på grund av dess gynnsamma denoiserande prestanda. I detta dokument tar vi ett steg framåt genom att undersöka konstruktionen av feed-forward denoizing convolutional neural networks (DnCNNs) för att omfamna framstegen i mycket djup arkitektur, lärande algoritm, och regularization metod i bilden denoising. Specifikt, resterande lärande och batch normalisering används för att påskynda utbildningsprocessen samt öka den denoiserande prestanda. Olika från de befintliga diskriminerande denomineringsmodeller som vanligtvis tränar en specifik modell för additivt vitt Gaussiskt buller (AWGN) på en viss bullernivå, vår DnCNN modell kan hantera Gaussian denoising med okänd bullernivå (dvs. blind Gaussian denoising). Med den återstående inlärningsstrategin tar DnCNN implicit bort den latenta rena bilden i de dolda lagren. Denna egenskap motiverar oss att träna en enda DnCNN-modell för att ta itu med flera allmänna bild denoiserande uppgifter som Gaussian denoising, singelbild super-upplösning och JPEG-bildavblockering. Våra omfattande experiment visar att vår DnCNN-modell inte bara kan uppvisa hög effektivitet i flera allmänna bilddenoiserande uppgifter, utan också effektivt implementeras genom att dra nytta av GPU-data.
Dessutom visade en ny metod som kallas DnCNN REF, med den återstående inlärningsstrategin, nyligen utmärkt prestanda och tog implicit bort den latenta rena bilden i de dolda lagren.
996,788
Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,278
Abstrakt. Cloud Computing växer fram idag som en kommersiell infrastruktur som eliminerar behovet av att underhålla dyr datorutrustning. Genom att använda virtualisering lovar molnen att ta itu med samma delade uppsättning fysiska resurser som en stor användarbas med olika behov. Därför lovar moln att vara för forskare ett alternativ till kluster, rutnät och superdatorer. Virtualisering kan dock leda till betydande prestandapåföljder för den krävande vetenskapliga datorarbetsbelastningen. I detta arbete presenterar vi en utvärdering av nyttan av de nuvarande molntjänster för vetenskaplig databehandling. Vi analyserar prestandan hos Amazon EC2-plattformen med hjälp av mikrobenchmarks och kärnor.Medan moln fortfarande förändras, visar våra resultat att de nuvarande molntjänsterna behöver en storleksordning i prestandaförbättring för att vara användbara för forskarsamhället.
REF utvärderade också EC2 för ett antal kärnor som används av HPC-tillämpningar, och kom också fram till att sådana molntjänster behöver en storleksordning av prestandaförbättringar för att bättre kunna tjäna forskarsamhället.
6,478,144
A Performance Analysis of EC2 Cloud Computing Services for Scientific Computing
{'venue': 'In ICST International Conference on Cloud Computing', 'journal': None, 'mag_field_of_study': ['Economics', 'Computer Science']}
83,279
ABSTRACT Med utvecklingen av forskningen om nätverksflytande målförsvar (MTD) har valet av optimal strategi blivit ett av de viktigaste problemen inom aktuell forskning. Riktad till problemet med den felaktiga defensiva strategi val som orsakas av felaktigt karakteriserar attacken och försvar spelet i MTD, optimal strategi val för MTD baserat på Markov spel (MG) föreslås för att balansera shopping defensiva intäkter och kvalitet nätverk service. Å ena sidan, traditionell matris spelstruktur ofta misslyckas med att beskriva MTD konfrontation korrekt. För att hantera denna osäkerhet konstrueras MTD baserat på MG. Markovs beslutsprocess används för att karakterisera övergången mellan nätverk med flera stater. Dynamiskt spel används för att karakterisera flera faser av attack och försvar i MTD omständigheter. Dessutom omvandlar det alla angrepp och försvar åtgärder till förändringar i attackytan eller de i prospekteringsytan, vilket förbättrar universaliteten av den föreslagna modellen. Å andra sidan bryr sig traditionella modeller föga om försvarskostnader i processen för optimal strategival. Efter en omfattande analys av effekten av försvarskostnad och försvarsnytta på strategivalet, är en optimal strategival algoritm utformad för att förhindra avvikelsen av de valda strategierna från faktiska nätverksförhållanden, vilket säkerställer att det optimala strategivalet är korrekt. Slutligen ges simuleringen och avdraget av den föreslagna metoden i fallstudier för att visa genomförbarheten och effektiviteten hos den föreslagna strategins optimala urvalsmetod. INDEX TERMS Rörlig mål försvar, Markov spel, optimal strategi val, attack yta, prospektering yta.
Dessutom föreslogs en Markov-spelmodell i studien av Lei et al. REF att lösa problemet med det optimala strategivalet för det rörliga målförsvaret.
12,464,866
Optimal Strategy Selection for Moving Target Defense Based on Markov Game
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
83,280
Vi anser att uppgiften att räkna upp och räkna svar på k-ary konjunktiva frågor mot relationella databaser som kan uppdateras genom att infoga eller ta bort tuples. Vi uppvisar en ny uppfattning om q-hierarkiska konjunktiva frågor och visar att dessa kan upprätthållas effektivt i följande mening. Under en linjär förbehandlingsfas kan vi bygga en datastruktur som möjliggör konstant fördröjningsräkning av frågeresultaten; och när databasen uppdateras kan vi uppdatera datastrukturen och starta om uppräkningsfasen inom konstant tid. För det speciella fallet av själv-join fria konjunktiva frågor vi få en dikotomi: om en fråga är inte q-hierarkiska, då fråga uppräkning med sublinjär * fördröjning och sublinjär uppdateringstid (och godtycklig förbehandlingstid) är omöjligt. För att svara Booleska konjunktiva frågor och för det mer allmänna problemet med att räkna antalet lösningar av k-ary frågor får vi kompletta dikotomier: om frågans homomorfiska kärna är q-hierarkisk, då storleken på frågeresultatet kan beräknas i linjär tid och upprätthållas med konstant uppdateringstid. Annars, storleken på frågeresultatet kan inte upprätthållas med sublinjär uppdateringstid. Alla våra lägre gränser förlitar sig på OMV-conjecture, en gissning på hårdheten av online matris-vektor multiplikation som nyligen har uppstått inom området finkornig komplexitet för att karakterisera hårdheten av dynamiska problem. Den lägre gränsen för räkneproblemet bygger dessutom på ortogonala vektorer gissningar, vilket i sin tur är underförstått av den starka exponentiella tidshypotesen. * ) Med sublinjära menar vi O(n 1−ε ) för vissa ε > 0, där n är storleken på den aktiva domänen i den aktuella databasen. •Teori för beräkning → Komplexitetsteori och logik; Datastrukturer och algoritmer för datahantering; Databasförfrågan bearbetning och optimering (teori); Problem, minskningar och fullständighet; Datastrukturer design och analys; Logik och databaser;
Låt Q vara en boolesk konjunktiv fråga vars homomorfisk kärna inte är q-hierarkisk REF.
15,969,559
Answering Conjunctive Queries under Updates
{'venue': "PODS '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,281
De flesta databashanteringssystem upprätthåller statistik över det underliggande förhållandet. En av de viktigaste statistikerna är den om de "heta posterna" i relationen: de som förekommer många gånger (oftast, eller mer än någon tröskel). End-biased histograms behåller till exempel de heta objekten som en del av histogrammet och används i selektivitetsbedömning. Varma föremål används som enkla avvikelser i datautvinning, och i anomali upptäckt i många tillämpningar. Vi presenterar nya metoder för dynamisk bestämning av heta objekt när som helst i ett förhållande som genomgår raderingsåtgärder samt infogar. Våra metoder upprätthåller små rymddatastrukturer som övervakar transaktionerna i relationen och, vid behov, snabbt matar ut alla heta objekt utan att ändra relationen i databasen. Med användarspecificerad sannolikhet rapporteras alla heta objekt korrekt. Våra metoder bygger på idéer från "grupptester". De är enkla att genomföra och har bevisbar kvalitet, utrymme och tidsgarantier. Tidigare kända algoritmer för detta problem som gör liknande kvalitet och prestanda garantier kan inte hantera raderingar, och de som hanterar raderingar kan inte göra liknande garantier utan att skanna databasen. Våra experiment med verkliga och syntetiska data visar att våra algoritmer är korrekta i dynamisk spårning av de heta objekten oberoende av graden av insättningar och raderingar.
Cormode m.fl. REF fann ofta objekt i en datauppsättning som genomgår raderingsåtgärder samt tillägg.
53,248,240
What's hot and what's not: tracking most frequent items dynamically
{'venue': 'TODS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,282
Den ökande tillgängligheten av GPS-aktiverade enheter förändrar hur människor interagerar med webben, och ger oss en stor mängd GPS-banor som representerar människors läge historia. I detta dokument, baserat på flera användares GPS-banor, siktar vi på att bryta intressanta platser och klassiska resesekvenser i en given geospatial region. Här, intressanta platser innebär de kulturellt viktiga platser, såsom Himmelska fridens torg i Peking, och besökta offentliga områden, som köpcentra och restauranger, etc. Sådan information kan hjälpa användare att förstå omgivande platser, och skulle möjliggöra reserekommendationer. I detta arbete modellerar vi först flera individers lägeshistorik med en trädbaserad hierarkisk graf (TBHG). För det andra, baserat på TBHG, föreslår vi en HITS (Hypertext Inducted Topic Search)-baserad slutledningsmodell, som betraktar en individs tillgång på en plats som en riktad länk från användaren till den platsen. Denna modell drar slutsatsen att det finns ett intresse av en plats genom att ta hänsyn till följande tre faktorer. 1) Intresset för en plats beror inte bara på antalet användare som besöker denna plats utan även på dessa användares reseupplevelser. 2) Användarnas reseupplevelser och lokaliseringsintressen har en ömsesidig förstärkningsrelation. 3) Intresset för en plats och en användares reseupplevelse är relativa värden och är regionrelaterade. För det tredje minerar vi de klassiska resesekvenserna bland platser med beaktande av intressena hos dessa platser och användarnas reseupplevelser. Vi utvärderade vårt system med hjälp av en stor GPS-dataset som samlats in av 107 användare under en period av ett år i den verkliga världen. Som ett resultat, vår HITS-baserade inferens modell överträffade baslinje tillvägagångssätt som rank-för-räkning och rank-för-frekvens. Samtidigt, när vi tog hänsyn till användarnas reseupplevelser och platsintressen, uppnådde vi en bättre prestanda än utgångsvärden, såsom rankför-count och rank-by-interest, etc.
Zheng m.fl. REF studera problemet gruvdrift intressanta resesekvenser från GPS banor.
6,491,073
Mining interesting locations and travel sequences from GPS trajectories
{'venue': "WWW '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,283
I praktiska tillämpningar behövs ofta algoritmer för maskininlärning för att lära sig klassificeringar som optimerar domänspecifika prestandamått. Tidigare har forskningen fokuserat på att lära sig den nödvändiga klassificeringen i isolering, men det är fortfarande svårt att lära sig icke-linjär klassificering för icke-linjära och icke-smootha prestandamått. I detta dokument kringgår vi detta problem genom att föreslå en ny tvåstegsmetod kallad CAPO, nämligen att först utbilda ickelinjära extraklassiatorer med befintliga inlärningsmetoder, och sedan anpassa extraklassiatorer för specifika prestationsåtgärder. I det första steget, kan extra klassificerare erhållas effektivt genom att ta off-the-shelf lärande algoritmer. För det andra steget visar vi att klassificeringsanpassningsproblemet kan reduceras till ett kvadratiskt programproblem, som liknar linjär SVM perf och kan lösas effektivt. Genom att utnyttja ickelinjära extraklassiatorer kan CAPO generera ickelinjära klassifiatorer som optimerar ett stort antal olika prestandamått, inklusive alla prestandamått baserade på beredskapstabellen och AUC, samtidigt som hög beräkningseffektivitet bibehålls. Empiriska studier visar att CAPO är effektiv och av hög beräkningseffektivitet, och även det är mer effektivt än linjär SVM perf.
• Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF föreslog att man skulle lära sig en icke-linjär klassificering för optimering av icke-linjära och icke-smootha prestandamått genom en ny tvåstegsmetod.
772,355
Efficient Optimization of Performance Measures by Classifier Adaptation
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(6): 1370-1382', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,284
I den här artikeln undersöker vi distribuerade beräkningar i dynamiska nätverk där nätverkets topologi ändras från rund till rund. Vi anser att en värsta fall modell där kommunikationslänkarna för varje runda väljs av en motståndare, och noder vet inte vilka deras grannar för den aktuella omgången är innan de sänder sina meddelanden. Modellen fångar upp mobila nätverk och trådlösa nätverk, där rörlighet och störningar gör kommunikation oförutsägbar. I motsats till mycket av det befintliga arbetet med dynamiska nät utgår vi inte från att nätverket så småningom slutar att förändras; vi kräver korrekthet och uppsägning även i nät som ständigt förändras. Vi introducerar en stabilitetsfastighet som kallas T-interval konnektivitet (för T ≥ 1), där det anges att för varje T på varandra följande rundor finns en stabil ansluten spännviddsdel. För T = 1 betyder detta att grafen är ansluten i varje v, men ändras godtyckligt mellan rundorna. Vi visar att i 1-interval anslutna grafer är det möjligt för noder att bestämma storleken på nätverket och beräkna alla beräkningsbara funktioner av deras initiala ingångar i O(n 2 ) rundor med meddelanden av storlek O(log n + d), där d är storleken på indata till en enda nod. Vidare, om grafen är T - interval ansluten för T > 1, kan beräkningen påskyndas med en faktor av T, och alla funktioner kan beräknas i O (n + n 2 /T ) rundor med meddelanden av storlek O (log n + d). Vi ger också två lägre gränser på token spridning problem, vilket kräver noderna för att sprida k bitar av information till alla noder i nätverket. Den T-interval anslutna dynamiska grafmodellen är en ny modell, som vi tror öppnar nya vägar för forskning i teorin om distribuerade datorer i trådlösa, mobila och dynamiska nätverk.
Förutom resultaten på k-gossip-problemet som vi har diskuterat tidigare, anser REF det relaterade problemet att räkna, och generalisera deras resultat till T-interval konnektivitet modell, vilket inkluderar en ytterligare begränsning att alla intervall av T-rundor har en stabil ansluten spännvidd subgraf.
384,790
Distributed computation in dynamic networks
{'venue': "STOC '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,285
Abstrakt. Visionen för semantiska affärsprocesser är att möjliggöra integration och samverkan mellan affärsprocesser över organisatoriska gränser. Eftersom olika organisationer modellerar sina processer på olika sätt, är upptäckt och hämtning av liknande semantiska affärsprocesser nödvändigt för att främja interorganisatoriska samarbeten. I detta dokument presenteras vår strategi att använda iSPARQL-vår otydliga frågemotor baserad på SPARQL-för att fråga OWL MIT Process Handbook en stor samling av över 5000 semantiska affärsprocesser. Vi visar särskilt hur lätt det är att använda iSPARQL för att utföra den presenterade processhämtningsuppgiften. Dessutom, eftersom valet av den bäst presterande likhetsstrategin är en icke-trivial, data- och kontextberoende uppgift, utvärderar vi resultatet av tre enkla och två människa-konstruerade likhetsstrategier. Dessutom utför vi maskininlärningsexperiment för att lära oss likhetsåtgärder som visar att kompletterande information i de olika begreppen av likhetsstrategier ger en mycket hög hämtning noggrannhet. Våra preliminära resultat visar att iSPARQL verkligen är användbart för att utöka räckvidden av frågor och att det därför är en möjliggörare för inter- och inter-organisatoriska samarbeten.
Kiefer m.fl. I REF föreslogs användning av semantiska affärsprocesser för att möjliggöra integration och samverkan mellan affärsprocesser över organisatoriska gränser.
8,735,308
Semantic Process Retrieval with iSPARQL
{'venue': 'In Proc. of the 4th Europ. Semantic Web Conf', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,286
Den islamiska staten Irak och ask-Sham (ISIS) fortsätter att använda sociala medier som ett viktigt inslag i sin kampanj för att motivera stöd. På Twitter har ISIS unika förmåga att utnyttja icke-anslutna sympatisörer som helt enkelt retweet propaganda identifierats som en primär mekanism i deras framgång att motivera både rekrytering och "lone varg" attacker. Det nuvarande arbetet utforskar en stor gemenskap av Twitter-användare vars aktivitet stöder ISIS propagandaspridning i varierande grad. Inom detta ISIS-stödande samhälle observerar vi en mängd olika typer av aktörer, däribland fighters, propagandister, rekryterare, religiösa forskare och icke-anslutna sympatisörer. Interaktionen mellan dessa användare ger unik insikt i de människor och berättelser som är avgörande för ISIS hållbarhet. I sin helhet hänvisar vi till denna mångfald av användare som en online extremist community eller OEC. Vi presenterar Iterative Vertex Clustering and Classification (IVCC), en skalbar analytisk metod för upptäckt av OEC i kommenterade heterogena nätverk, och ger en belysande fallstudie av en online-community på över 22 000 Twitter-användare vars online-beteende direkt förespråkar stöd för ISIS eller contibutes till gruppens propagandaspridning via retweets.
Författare i REF utförde iterativ vertex kluster och klassificering för att identifiera islamiska jihadister på Twitter.
19,684,370
Online extremism and the communities that sustain it: Detecting the ISIS supporting community on Twitter
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Sociology', 'Medicine']}
83,287
I detta dokument föreslår vi ett nytt tillvägagångssätt för att upptäcka informativt innehåll från en uppsättning tabelldokument (eller webbsidor) på en webbplats. Vårt system, InfoDiscoverer, första partitionerar en sida i flera innehållsblock enligt HTML-taggen < T~L E > på en webbsida. Baserat på förekomsten av funktioner (termer) i uppsättningen sidor, den beräknar entropivärdet för varje funktion. Enligt entropivärdet för varje funktion i ett innehållsblock definieras blockets entropivärde. Genom att analysera informationsmåttet föreslår vi en metod för att dynamiskt välja den entropitröskel som partitionerar block till antingen informativa eller överflödiga. Informationsblock är särskiljande delar av sidan, medan redundanta innehållsblock är vanliga delar. Baserat på svaret som genereras från 13 manuellt taggade nyheter Webbplatser med totalt 26,518 webbsidor, experiment visar att både återkalla och precisionsfrekvenser är större än 0,956. Det vill säga, med hjälp av metoden, informativa block (nyheter artiklar) av dessa webbplatser kan automatiskt separeras från semantiskt överflödigt innehåll såsom annonser, banners, navigeringspaneler, nyhetskategorier, etc. Genom att använda InfoDiscoverer som förbehandlare av applikationer för insamling och utvinning av information kommer precisionen för hämtning och utvinning att ökas, och indexeringsstorleken och hämtnings komplexiteten kommer också att minskas.
Entropianalys som föreslås i REF diskriminerar de informativa myndigheterna på sidorna genom att dela in en sida i flera myndighetsblock med olika myndighetsvärden som viktas av informationen i varje block.
10,504,461
Discovering informative content blocks from Web documents
{'venue': "KDD '02", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,288
Abstract-Identifiera framväxande ledare i organisationer är en nyckelfråga i organisatorisk beteendeforskning, och ett nytt problem i social computing. Detta dokument presenterar en analys av hur en framväxande ledare uppfattas i nybildade, små grupper, och tar sedan itu med uppgiften att automatiskt sluta sig till framväxande ledare, med hjälp av en mängd olika kommunikativa ickeverbala signaler utvunna från ljud- och videokanaler. I inference-uppgiften används regelbaserade och kollektiva klassificeringsmetoder med kombinationen av akustiska och visuella egenskaper som extraherats från en ny liten grupp corpus som specifikt samlats in för att analysera det framväxande ledarskapsfenomenet. Våra resultat visar att den framväxande ledaren uppfattas av sina kamrater som en aktiv och dominant person; att visuell information ökar akustisk information; och att tillägg av relationsinformation till de ickeverbala signalerna förbättrar slutsatsen av varje deltagares ledarrankning i gruppen. Index Terms-Emergent ledarskap, icke-verbal beteende.
REF använde ickeverbala beteenden (både ljud och visuella metoder) för att automatiskt identifiera framväxande ledare i små gruppscenarier.
10,656,014
A Nonverbal Behavior Approach to Identify Emergent Leaders in Small Groups
{'venue': 'IEEE Transactions on Multimedia', 'journal': 'IEEE Transactions on Multimedia', 'mag_field_of_study': ['Computer Science']}
83,289
Vi presenterar ett nytt tillvägagångssätt för relationsextraktion, baserat på observationen att den information som krävs för att hävda ett förhållande mellan två namngivna enheter i samma mening vanligtvis fångas av den kortaste vägen mellan de två enheterna i beroendekurvan. Experiment om att extrahera relationer på toppnivå från tidningen ACE (Automated Content Extraction) visar att den nya kortaste vägen beroende kärna överträffar en ny metod baserad på beroende trädkärnor.
REF utformade en kärna längs den kortaste beroendevägen mellan två enheter genom att observera att relationen är starkt beroende av SDP.
5,165,854
A Shortest Path Dependency Kernel For Relation Extraction
{'venue': 'Human Language Technology Conference And Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,290
Människor kan lätt beskriva vad de ser på ett sammanhängande sätt och på olika detaljnivå. Befintliga metoder för automatisk videobeskrivning är dock huvudsakligen inriktade på en enda meningsgenerering och producerar beskrivningar på en fast detaljnivå. I detta dokument tar vi upp båda dessa begränsningar: för en variabel detaljnivå producerar vi sammanhängande multi-sentence beskrivningar av komplexa videor. Vi följer en tvåstegsstrategi där vi först lär oss att förutsäga en semantisk representation (SR) från video och sedan generera naturliga språkbeskrivningar från SR. För att producera konsekventa multi-sentence beskrivningar, vi modellerar över-sentence konsekvens på nivå med SR genom att driva ett konsekvent ämne. Vi bidrar också både till visuellt erkännande av objekt som föreslår en handcentrerad strategi samt till robust generering av meningar med hjälp av ett ordlattice. Mänskliga domare bedömer våra multi-sentence-beskrivningar som mer läsbara, korrekta och relevanta än relaterade arbeten. För att förstå skillnaden mellan mer detaljerade och kortare beskrivningar, samlar vi in och analyserar en videobeskrivning corpus av tre nivåer av detaljer.
I REF utvidgade de sitt arbete till att omfatta ett system med videobeskrivning på tre nivåer.
15,399,617
Coherent Multi-Sentence Video Description with Variable Level of Detail
{'venue': 'GCPR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,291
Abstract-Stor mängd information som finns i distribuerade databaser måste utnyttjas av organisationer för att vara konkurrenskraftig på marknaden. För att utnyttja denna information, frågor ställs därefter. Dessa frågor kräver effektiv behandling, som uppdrag att utforma optimal frågebehandling strategier som genererar effektiv frågebehandling planer för en given distribuerad fråga. Antalet möjliga frågebehandling planer växer snabbt med ökningen av antalet platser som används, och förbindelser som nås, av frågan. Det finns ett behov av att generera effektiva frågebehandlingsplaner bland alla möjliga frågeplaner. Den föreslagna metoden försöker generera sådana frågebehandlingsplaner med hjälp av genetisk algoritm. Metoden genererar frågeplaner baserade på närhet av data som krävs för att svara på användarens fråga. De frågeplaner som har de nödvändiga uppgifterna bosatta på färre platser, anses effektivare, och är därför att föredra, framför frågeplaner som har data spridda över ett stort antal platser. De frågeplaner så som genereras innebär minimalt antal platser för att svara på användarens fråga som leder till effektiv frågebehandling. Dessutom visar experimentella resultat att den GA-baserade metoden snabbt konvergerar mot de optimala frågebehandlingsplanerna för en observerad crossover och mutationsfrekvens.
I REF ges ett tillvägagångssätt som genererar "nära" frågeplaner med avseende på antalet berörda platser och koncentrationen av relationer på platserna för en distribuerad relationsfråga.
57,061,788
Distributed Query Processing Plans Generationusing Genetic Algorithm
{'venue': None, 'journal': 'International Journal of Computer Theory and Engineering', 'mag_field_of_study': ['Computer Science']}
83,292
Nyligen, utvecklingen av neural maskinöversättning (NMT) har avsevärt förbättrat översättningskvaliteten på automatisk maskinöversättning. Medan de flesta meningar är mer exakt och flytande än översättningar av statistisk maskinöversättning (SMT)-baserade system, i vissa fall, NMT-systemet producerar översättningar som har en helt annan betydelse. Detta är särskilt fallet när sällsynta ord förekommer. När man använder statistisk maskinöversättning har det redan visat sig att betydande vinster kan uppnås genom att förenkla inmatningen i ett förbearbetningssteg. Ett vanligt exempel är förbeställningsmetoden. I detta arbete använde vi frasbaserad maskinöversättning för att förhandsöversätta indata till målspråket. Sedan genererar ett neuralt maskinöversättningssystem den slutliga hypotesen med hjälp av pre-translation. Därmed använder vi antingen endast utdata från det frasbaserade maskinöversättningssystemet (PBMT) eller en kombination av PBMT-utdata och källmeningen. Vi utvärderar tekniken på engelska till tyska översättning uppgift. Med hjälp av detta tillvägagångssätt kan vi överträffa PBMT-systemet samt det grundläggande neurala MT-systemet med upp till 2 BLEU-poäng. Vi analyserade hur kvaliteten på det ursprungliga systemet påverkade slutresultatet.
REF föreslog en föröversättningsstrategi för att kombinera SMT och NMT, där SMT-systemet används för att förhandsöversätta indata och sedan ett NMT-system genererar den slutliga hypotesen med hjälp av förhandsöversättningen.
18,017,180
Pre-Translation for Neural Machine Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,293
De flesta moderna konvolutionella neurala nätverk (CNN) som används för objektigenkänning är byggda enligt samma principer: Alternativa konvolution och max-pooling lager följt av ett litet antal fullt anslutna lager. Vi omvärderar den senaste tekniken för objektigenkänning från små bilder med konvolutionella nätverk och ifrågasätter nödvändigheten av olika komponenter i rörledningen. Vi finner att max-pooling helt enkelt kan ersättas av ett konvolutionslager med ökat steg utan förlust av noggrannhet på flera riktmärken för bildigenkänning. Efter detta fynd - och bygger på andra senaste arbete för att hitta enkla nätverksstrukturer - föreslår vi en ny arkitektur som endast består av konvolutionella lager och ger konkurrenskraftiga eller toppmoderna prestanda på flera objektigenkänningsdataset ImageNet). För att analysera nätverket introducerar vi en ny variant av "dekonvolutionsmetoden" för att visualisera funktioner som lärts av CNNs, som kan tillämpas på ett bredare spektrum av nätverksstrukturer än befintliga metoder.
ZynqNet härlett från SqueezeNet genom att ersätta kombinationen av convolutional och maxpool lager med en convolutional lager med ökat steg REF.
12,998,557
Striving for Simplicity: The All Convolutional Net
{'venue': 'ICLR 2015', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,294
Motåtgärder för dåligt uppförande och själviskhet är obligatoriska krav i MANET. Själviskhet som orsakar brist på nodaktivitet kan inte lösas genom klassisk säkerhet innebär att man strävar efter att kontrollera en operations korrekthet och integritet. Vi föreslår en generisk mekanism baserad på rykte för att genomdriva samarbete bland noderna av en MANET för att förhindra själviskt beteende. Varje nätverksenhet håller koll på andra enheters samarbete med hjälp av en teknik som kallas rykte. Räkenskapen beräknas utifrån olika typer av information om varje enhets samarbetsfrekvens. Eftersom det inte finns något incitament för en nod att illvilligt sprida negativ information om andra noder, förhindras enkelt överbelastningsattacker med hjälp av själva samarbetstekniken. Den generiska mekanismen kan smidigt utvidgas till grundläggande nätverksfunktioner med liten inverkan på befintliga protokoll.
I Ref-författarna föreslår man en allmän mekanism för genomförande av samarbete som bygger på ryktet, som de kallar Core.
7,925,947
CORE: A Collaborative Reputation Mechanism to enforce node cooperation in Mobile Ad hoc Networks
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,295
De senaste åren har en dramatisk ökning av populariteten av ordinslag främst på grund av deras förmåga att fånga semantisk information från massiva mängder textinnehåll. Som ett resultat, många uppgifter i Natural Language Processing har försökt att dra nytta av potentialen i dessa distributionsmodeller. I detta arbete studerar vi hur ordinbäddningar kan användas i Word Sense Disambiguation, en av de äldsta uppgifterna inom Natural Language Processing och Artificiell Intelligens. Vi föreslår olika metoder genom vilka ordinslag kan utnyttjas i en toppmodern övervakad WSD-systemarkitektur, och utföra en djup analys av hur olika parametrar påverkar prestanda. Vi visar hur ett WSD-system som använder enbart ordinslag, om det utformas korrekt, kan ge betydande prestandaförbättringar jämfört med ett toppmodernt WSD-system som innehåller flera standard WSD-funktioner.
Ordinslag har också föreslagits för Word Sense Disambiguation (WSD) REF.
15,026,764
Embeddings for Word Sense Disambiguation: An Evaluation Study
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,296
Abstract-Computer spel är ett lovande verktyg för att stödja rehabilitering hemma. Det är allmänt erkänt att rehabilitering spel bör (i) vara snyggt integrerad i allmänna rehabiliteringsstationer, (ii) följa de begränsningar som de kliniska protokollen, (iii) innebär rörelser som är funktionella för att nå rehabiliteringsmålet, och (iv) anpassa sig till patientens nuvarande status och framsteg. Det stora flertalet av de befintliga rehabiliteringsspelen är dock fristående applikationer (inte integrerade i en patientstation), som sällan anpassar sig till patientens tillstånd. I den här artikeln presenterar vi den första prototypen av patientrehabiliteringsstationen vi utvecklat som integrerar videospel för rehabilitering med metoder för beräknings intelligens både för on-line övervakning av rörelsernas utförande under spelen och för anpassning av gameplay till patientens status. Stationen använder ett suddigt system för att övervaka övningarnas utförande, on-line, enligt de kliniska begränsningar som anges av terapeuten vid konfigurationstidpunkten, och för att ge direkt feedback till patienterna. Samtidigt tillämpas i realtid anpassning (med hjälp av Quest Bayesian adaptive approach) för att ändra spelet enligt både (i) patientens nuvarande prestation och framsteg och (ii) den träningsplan som anges av terapeuten. Slutligen presenterar vi ett av de spel som finns på våra patientstationer (utformade i nära samarbete med terapeuter) som integrerar övervakningsfunktionaliteter med självanpassning i spelet för att ge bästa möjliga stöd till patienter under deras rutin.
En studie av REF visar att rehabiliteringsspel bör integreras i allmänna rehabiliteringsstationer, följa de begränsningar som de kliniska protokollen medför och anpassa sig till patientens status och framsteg.
13,588,076
Self-adaptive games for rehabilitation at home
{'venue': '2012 IEEE Conference on Computational Intelligence and Games (CIG)', 'journal': '2012 IEEE Conference on Computational Intelligence and Games (CIG)', 'mag_field_of_study': ['Computer Science']}
83,297
Abstract-This paper reports on WaterGAN, a generative adversarial network (GAN) for att generera realistiska undervattensbilder från i luften bild och djup parningar i en oövervakad pipeline som används för färgkorrigering av monocular undervattensbilder. Kameror ombord autonoma och fjärrstyrda fordon kan fånga högupplösta bilder för att kartlägga havsbottnen; dock är undervattens bildbildning föremål för den komplexa processen för ljusutbredning genom vattenpelaren. De råa bilder som hämtas är karakteristiskt annorlunda än bilder som tas i luft på grund av effekter som absorption och spridning, som orsakar dämpning av ljus i olika hastigheter för olika våglängder. Även om denna fysiska process är väl beskriven teoretiskt, beror modellen på många parametrar inneboende vattenpelaren samt strukturen på scenen. Dessa faktorer gör det svårt att återvinna dessa parametrar utan att förenkla antaganden eller fältkalibrering; därför är restaurering av undervattensbilder ett icke-trivialt problem. Djupt lärande har visat sig vara en stor framgång när det gäller att modellera komplexa ickelinjära system men kräver en stor mängd träningsdata, vilket är svårt att sammanställa i djuphavsmiljöer. Med WaterGAN genererar vi ett stort träningsdataset med motsvarande djup, färgbilder i luften och realistiska undervattensbilder. Dessa data fungerar som inmatning till ett tvåstegsnätverk för färgkorrigering av monokulära undervattensbilder. Vår föreslagna pipeline valideras med tester på verkliga data som samlats in från både en ren vattentesttank och från undervattensundersökningar som samlats in på fältet. Källkod, urvalsdata och förträngda modeller görs allmänt tillgängliga.
WaterGAN REF syntetiserar realistiska undervattensbilder genom att modellera kameraparametrar och miljöeffekter explicit att användas som träningsdata för färgkorrigering uppgift.
14,246,341
WaterGAN: Unsupervised Generative Network to Enable Real-time Color Correction of Monocular Underwater Images
{'venue': 'IEEE Robotics and Automation Letters IEEE Robotics and Automation Letters IEEE Robotics and Automation Letters 387 - 394 (2018)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,298
Nyligen, flera modeller baserade på djupa neurala nätverk har uppnått stor framgång både i fråga om återuppbyggnad noggrannhet och beräkningsprestanda för en enda bild super-upplösning. I dessa metoder uppgraderas indatabilden med låg upplösning (LR) till högupplösningsutrymmet (HR) med ett enda filter, vanligen bikubisk interpolering, före rekonstruktion. Detta innebär att superupplösningsoperationen (SR) utförs i HR-utrymme. Vi visar att detta är suboptimalt och tillför beräkningskomplexitet. I detta papper presenterar vi det första konvolutionella neurala nätverket (CNN) som kan i realtid SR av 1080p videor på en enda K2 GPU. För att uppnå detta föreslår vi en ny CNN-arkitektur där funktionskartorna extraheras i LR-utrymmet. Dessutom introducerar vi ett effektivt sub-pixel-konvolutionsskikt som lär sig en rad uppskalningsfilter för att skala upp de slutliga LR-funktionskartorna till HR-utgången. Genom att göra det ersätter vi effektivt det handgjorda bikubiska filtret i SR-ledningen med mer komplexa uppskalningsfilter som är särskilt utbildade för varje funktionskarta, samtidigt som den totala SR-driftens beräkningskomplex minskar. Vi utvärderar det föreslagna tillvägagångssättet med hjälp av bilder och videor från allmänt tillgängliga dataset och visar att det presterar betydligt bättre (+0.15dB på bilder och +0.39dB på videor) och är en storleksordning snabbare än tidigare CNN-baserade metoder.
ESPCN REF införde först ett effektivt subpixelkonvolutionsskikt för uppsampling för att spara beräkningskostnaden.
7,037,846
Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,299
Abstract-Short-term trafikprognoser baserade på djupinlärningsmetoder, särskilt långtidsminne (LSTM) neurala nätverk, har fått mycket uppmärksamhet under de senaste åren. Emellertid har potentialen av djupinlärningsmetoder i trafikprognoser ännu inte utnyttjats fullt ut i termer av djupet av modellarkitekturen, den rumsliga skalan av förutsägelseområdet och den prediktiva kraften av rumslig-temporala data. I detta papper, en djupt staplad dubbelriktad och enkelriktad LSTM (SBU-LSTM) neurala nätverk arkitektur föreslås, som anser både framåt och bakåt beroenden i tidsseriedata, att förutsäga nätverk-omfattande trafikhastighet. Ett skikt av dubbelriktad LSTM (BDLSM) utnyttjas för att fånga rumsliga funktioner och tvåriktade tidsberoenden från historiska data. Såvitt vi vet är detta första gången som BDLSTMs har tillämpats som byggstenar för en djup arkitekturmodell för att mäta det efterblivna beroendet av trafikdata för förutsägelse. Den föreslagna modellen kan hantera saknade värden i inmatningsdata med hjälp av en maskeringsmekanism. Dessutom kan denna skalbara modell förutsäga trafikhastigheten för både motorvägar och komplexa stadstrafiknät. Jämförelser med andra klassiska och state-of-the-art modeller indikerar att det föreslagna SBU-LSTM neurala nätverket uppnår överlägsen förutsägelse prestanda för hela trafiknätet i både noggrannhet och robusthet. Index Terms-djup inlärning, dubbelriktad LSTM, bakåtberoende, trafik förutsägelse, nätverksomfattande trafik HE prestanda intelligenta transportsystem (ITS) applikationer bygger till stor del på kvaliteten på trafikinformation. På senare tid, med den betydande ökningen av både den totala trafikvolymen och de data de genererar, finns möjligheter och utmaningar inom transporthantering och forskning när det gäller hur man på ett effektivt och korrekt sätt förstår och utnyttjar den väsentliga informationen under dessa massiva datamängder. Kortsiktig trafikprognos baserad på datadrivna modeller för ITS-tillämpningar har varit ett av de största forskningsområdena för att utnyttja massiva trafikdata, och har stor inverkan på den totala prestandan hos en mängd olika ITS-tillämpningar Under de senaste tre decennierna har ett stort antal metoder föreslagits för trafikprognoser när det gäller att förutsäga hastighet, volym, densitet och restid. Studier inom detta område fokuserar normalt på metodkomponenterna, som syftar till att utveckla olika modeller för att förbättra förutsägelsenoggrannheten, effektiviteten eller robustheten. Tidigare litteratur visar att de befintliga modellerna i stort sett kan delas in i två kategorier, dvs. Klassiska statistiska metoder och metoder för beräkningsunderrättelse (CI) [2]. De flesta statistiska metoder för trafikprognoser föreslogs i ett tidigare skede då trafikförhållandena var mindre komplexa och transportdatamängderna var relativt små. Senare, med den snabba utvecklingen inom trafikanalysteknik och beräkningskraft samt trafikdatavolym, fokuserar merparten av det senaste arbetet på CI-strategier för trafikprognoser. Med förmågan att hantera data med hög dimension och förmågan att fånga icke-linjär relation, CI metoder tenderar att överträffa de statistiska metoderna, såsom autoregressiva integrerade glidande medelvärde (ARIMA) [36], med avseende på hantering av komplexa trafik prognos problem [38]. Men den fulla potentialen av artificiell intelligens utnyttjades inte förrän uppkomsten av neurala nätverk (NN) baserade metoder. Sedan prekursorstudien om att använda NN i trafikprognoserna föreslogs [39] har många NN-baserade metoder, såsom feed forward NN [41], fuzzy NN [40], återkommande NN (RNN) [42] och hybrid NN [25] antagits för trafikprognoser. Recurrent Neural Networks (RNNs) modellsekvensdata genom att bibehålla en kedjeliknande struktur och ett internt minne med slingor [4] och, på grund av transporternas dynamiska karaktär, är särskilt lämpliga för att fånga den tidsmässiga utvecklingen av trafikstatusen. Den kedjeliknande strukturen och öglornas djup gör det dock svårt att träna RNN på grund av problemen med att försvinna eller spränga lutningen under backpropageringsprocessen. Det har under årens lopp gjorts ett antal försök att övervinna svårigheterna med att utbilda RNN. Dessa svårigheter togs framgångsrikt itu med av Long ShortTerm Memory Networks (LSTMs) [3], som är en typ av RNN med grindstruktur för att lära sig långsiktiga beroenden av Ruimin Ke är med
GSTNet ytterligare undersökt fånga globala dynamiska beroenden för att förbättra i trafiknätverk förutsägelser uppgifter REF.
24,760,423
Deep Bidirectional and Unidirectional LSTM Recurrent Neural Network for Network-wide Traffic Speed Prediction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,300
Trådlösa nätnät förväntas i stor utsträckning användas för att ge tillgång till Internet inom en snar framtid. För att uppfylla förväntningarna bör dessa nätverk ge hög genomströmning samtidigt till många användare. Den senaste forskningen har visat att 802.11 inte lämpar sig för att uppnå detta mål på grund av sitt konservativa system för tillträde till CSMA/CA-kanaler och RTS/CTS-mekanismen. I detta dokument undersöker vi genomströmningsförbättringar som kan uppnås genom att ersätta CSMA/CA med ett STDMA-system där överföringarna planeras enligt den fysiska interferensmodellen. I detta syfte presenterar vi en beräkningseffektiv heuristic för att beräkna en genomförbar schema enligt den fysiska interferensmodellen och vi visar, under enhetlig slumpmässig nodfördelning, en approximationsfaktor för längden av detta schema i förhållande till den kortaste schema möjligt med fysisk interferens. Detta representerar den första kända polynom-tid algoritm för detta problem med en bevisad approximationsfaktor. Vi utvärderar också genomgång och genomförandetid för denna algoritm på representativa trådlösa mesh nätverksscenarier genom paketnivåsimuleringar. Resultaten visar att genomströmningen med STDMA och fysisk-interferensbaserad schemaläggning kan vara upp till tre gånger högre än 802.11 för de simulerade parametervärdena. Resultaten visar också att vår schemaläggningsalgoritm kan schemalägga nätverk med 2000 noder på ca 2,5 minuter.
I en liknande problematik, Brar et al. REF presenterade en beräkningseffektiv, centraliserad heurism för beräkning av en genomförbar tidsplan enligt den fysiska SINR-modellen.
6,818,545
Computationally efficient scheduling with the physical interference model for throughput improvement in wireless mesh networks
{'venue': "MobiCom '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,301
Underground forum, där deltagarna utbyter information om otillbörliga metoder och ägnar sig åt försäljning av olagliga varor och tjänster, är en form av sociala nätverk online (OSN). Till skillnad från traditionella OSNs som Facebook, i underjordiska forum mönster kommunikationer inte bara koda redan existerande sociala relationer, utan i stället fångar de dynamiska förtroenderelationer som skapas mellan ömsesidigt misstrogna parter. I denna uppsats, vi empiriskt karakteriserar sex olika underjordiska forumBlackHatWorld, Carders, HackSector, HackE1ite, Freehack, och L33tCrew -undersöka egenskaperna hos de sociala nätverk som bildas inom, innehållet i de varor och tjänster som utbyts, och slutligen, hur individer vinna och förlora förtroende i denna miljö.
Analys av sådana underjordiska tjänster dokumenterades först i REF, där författarna undersökte egenskaperna hos sociala nätverk som bildats för svarta marknadstjänster.
207,191,376
An analysis of underground forums
{'venue': "IMC '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,302