src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Objektdetektorer har enormt tjänat på att gå mot en end-to-end lärande paradigm: förslag, funktioner, och klassificeraren blir ett neuralt nätverk förbättrade resultat tvåfaldigt på allmän objektdetektering. En oumbärlig komponent är icke-maximal dämpning (NMS), en efterbehandlingsalgoritm som ansvarar för sammanslagning av alla upptäckter som tillhör samma objekt. De facto-standarden NMS algoritm är fortfarande helt handgjorda, misstänkt enkel, och - att vara baserad på girig klustering med en fast avstånd tröskel - tvingar en kompromiss mellan återkallande och precision. Vi föreslår en ny nätverksarkitektur utformad för att utföra NMS, med bara rutor och deras poäng. Vi rapporterar experiment för persondetektering på PETS och för allmänna objektkategorier på COCO-datasetet. Vår strategi visar löfte ger förbättrad lokalisering och ocklusion hantering.
REF lär sig ett djupt neuralt nätverk för att utföra NMS-funktionen med hjälp av predikterade lådor och deras motsvarande poäng.
7,211,062
Learning Non-maximum Suppression
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
83,033
Sammanfattning Elektroniska journaler (EMR) är kritiska, mycket känslig privat information inom hälso- och sjukvården, och måste ofta delas mellan kamrater. Blockchain ger en delad, oföränderlig och transparent historia av alla transaktioner för att bygga program med förtroende, ansvarighet och transparens. Detta ger en unik möjlighet att utveckla en säker och pålitlig EMR-datahantering och delningssystem med hjälp av blockchain. I detta dokument presenterar vi våra perspektiv på blockchainbaserad hantering av hälso- och sjukvårdsdata, särskilt för EMR-datadelning mellan vårdgivare och för forskningsstudier. Vi föreslår en ram för hantering och utbyte av EMR-data för cancerpatientvård. I samarbete med Stony Brook Universitetssjukhuset implementerade vi vårt ramverk i en prototyp som säkerställer integritet, säkerhet, tillgänglighet och finkornig åtkomstkontroll över EMR-data. Det föreslagna arbetet kan avsevärt minska vändningstiden för EMR-delning, förbättra beslutsfattandet för medicinsk vård och minska den totala kostnaden.
Liksom i REF föreslog författarna ett ramverk för integritetsmedvetenhet för hantering och utbyte av elektroniska journaluppgifter för cancerpatientvården baserat på blockkedjeteknik.
8,776,796
Secure and Trustable Electronic Medical Records Sharing using Blockchain
{'venue': 'AMIA ... Annual Symposium proceedings. AMIA Symposium', 'journal': 'AMIA ... Annual Symposium proceedings. AMIA Symposium', 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,034
Ett nytt ramverk introduceras för visuell händelsedetektering. Visuella händelser betraktas som stokastiska temporalprocesser i det semantiska konceptutrymmet. I denna konceptcentrerade syn på visuell händelsemodellering modelleras det dynamiska mönstret för en händelse genom de individuella semantiska begreppens kollektiva utvecklingsmönster under den visuella händelsens gång. Videoklipp som innehåller olika händelser klassificeras genom att använda information om hur väl deras dynamik i riktning mot varje semantiskt koncept matchar en viss händelse. Resultaten visar att en sådan datadriven statistisk metod i själva verket är effektiv när det gäller att upptäcka olika visuella händelser som att lämna bil, upplopp och flygplansflygning.
Ebadollahi m.fl. upptäckte nya visuella händelser genom att modellera dem som stokastiska temporal processer i det semantiska konceptet utrymme REF.
6,919,512
Visual Event Detection using Multi-Dimensional Concept Dynamics
{'venue': '2006 IEEE International Conference on Multimedia and Expo', 'journal': '2006 IEEE International Conference on Multimedia and Expo', 'mag_field_of_study': ['Computer Science']}
83,035
Ubiquitous sensation möjliggörs av Wireless Sensor Network (WSN) teknologier skär över många områden i dagens moderna liv. Detta ger möjlighet att mäta, dra slutsatser och förstå miljöindikatorer, från känsliga ekologier och naturresurser till stadsmiljöer. Spridningen av dessa enheter i ett kommunikationsaktivt nätverk skapar sakernas Internet (IoT), vari sensorer och ställdon blandas sömlöst med miljön runt omkring oss, och informationen delas över plattformar för att utveckla en gemensam operativ bild (COP). Drivs av den senaste anpassningen av en mängd olika möjliggörande enhetstekniker såsom RFID-taggar och läsare, nära fältkommunikationsenheter (NFC) och inbyggda sensor- och ställdonsnoder, har sakernas internet klivit ur sin linda och är nästa revolutionerande teknik för att omvandla Internet till ett helt integrerat framtida Internet. När vi går från www (statiska sidor web) till web2 (socialt nätverk) till web3 (allmänt tillgänglig datorwebb), ökar behovet av data-on-demand med hjälp av sofistikerade intuitiva frågor avsevärt. Detta dokument presenterar en moln centrerad vision för världsomfattande genomförande av Internet of Things. De viktigaste möjliggörande tekniker och tillämpningsområden som sannolikt kommer att driva IoT-forskning inom en snar framtid diskuteras. Ett molnimplementation med hjälp av Aneka, som bygger på interaktion mellan privata och offentliga moln presenteras. Vi avslutar vår IoT vision genom att expandera på behovet av konvergens av WSN, Internet och distribuerade datorer riktade till teknisk forskning gemenskap.
Studien REF presenterar en molncentrisk vision för global implementering av sakernas internet, och implementerar en molnbaserad IoT-applikation med hjälp av Aneka molntjänst och Microsoft Azure.
204,982,032
Internet of Things (IoT): A Vision, Architectural Elements, and Future Directions
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,036
Abstract-Med tillkomsten av små form-faktor enheter, protokoll standardisering, och robust protokoll implementeringar, multihop mobila nätverk bevittnar utbredd distribution. Övervakningen av sådana nät är avgörande för att de ska fungera väl. I detta syfte presenteras i detta dokument DAMON, ett distribuerat system för övervakning av mobilnät med flera block. DAMON använder agenter inom nätverket för att övervaka nätverksbeteendet och skicka insamlade mätningar till dataarkiv. DAMONs allmänna arkitektur stöder övervakning av ett brett spektrum av protokoll, enheter och nätverksparametrar. Andra viktiga funktioner i DAMON inkluderar sömlöst stöd för flera arkiv, automatisk upptäckt av sänkor av agenterna, och resililiens av agenter för arkivfel. Vi har implementerat DAMON agenter som samlar in statistik om datatrafik och ad hoc On-demand distans Vector (AODV) routing protokoll. Vi har använt vårt genomförande för att övervaka ett ad hoc-nätverk vid det 58:e mötet i Internet Engineering Task Force (IETF) i november 2003 i Minneapolis, MN. I det här dokumentet beskriver vi DAMON:s arkitektur och rapporterar om hur IETF-nätverket fungerar med hjälp av övervakningsinformation som samlas in av DAMON. Vårt nätverksövervakningssystem är tillgängligt online för användning av andra forskare.
I stället föreslog Ref en generisk arkitektur för övervakning av många parametrar för nätverksenheter och protokoll.
15,202,897
DAMON: a distributed architecture for monitoring multi-hop mobile networks
{'venue': '2004 First Annual IEEE Communications Society Conference on Sensor and Ad Hoc Communications and Networks, 2004. IEEE SECON 2004.', 'journal': '2004 First Annual IEEE Communications Society Conference on Sensor and Ad Hoc Communications and Networks, 2004. IEEE SECON 2004.', 'mag_field_of_study': ['Computer Science']}
83,037
Datalagring och on-line analysbehandling (OLAP) är viktiga inslag i beslutsstöd, som i allt högre grad har blivit ett fokus för databasbranschen. Många kommersiella produkter och tjänster finns nu tillgängliga, och alla huvudleverantörer av databashanteringssystem har nu erbjudanden inom dessa områden. Beslutsstöd ställer vissa ganska olika krav på databasteknik jämfört med traditionella transaktionsbehandlingstillämpningar online. Detta dokument ger en översikt över datalagring och OLAP-teknik, med tonvikt på deras nya krav. Vi beskriver back end-verktyg för att extrahera, rengöra och ladda data i ett datalager; multidimensionella datamodeller typiska för OLAP; front end-klient verktyg för förfrågan och dataanalys; servertillägg för effektiv frågebehandling; och verktyg för metadatahantering och för att hantera lagret. Förutom att kartlägga den senaste tekniken, identifierar detta dokument också några lovande forskningsfrågor, av vilka några är relaterade till problem som databasen forskarvärlden har arbetat med i flera år, men andra har bara börjat tas upp. Denna översikt är baserad på en handledning som författarna presenterade på
Vi hänvisar till REF för en översikt över ämnet.
8,125,630
An overview of data warehousing and OLAP technology
{'venue': 'SGMD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,038
Trots snabba framsteg på senare tid när det gäller utvecklingen av kvantdatorer som kan ge beräkningsmässiga fördelar jämfört med klassiska datorer verkar det troligt att sådana datorer till en början åtminstone kommer att behöva köras i ett hybridkvantklassiskt system. Detta förverkligande har lett till intresse för hybrida kvantklassiska algoritmer som till exempel gör det möjligt för kvantdatorer att lösa stora problem trots att de har ett mycket begränsat antal qubits. Här föreslår vi en hybrid paradigm för quantum annealers med målet att mildra en annan begränsning av sådana enheter: behovet av att inbädda problemfall i (ofta mycket begränsad) konnektivitetskurvan av annealer. Denna inbäddningsprocess kan vara kostsam att utföra och kan förstöra alla beräkningar speedup. För att lösa många praktiska problem är det dessutom nödvändigt att utföra många, ofta besläktade, sådana inbäddningar. Vi kommer att visa hur man för sådana problem kan utnyttja en obruten upptrappning som negeras av inbäddningstiden för att ge en verklig upptrappning. Som ett proof-of-concept exempel presenterar vi en djupgående fallstudie av ett enkelt problem baserat på maximal vikt oberoende set problem. Även om vi inte observerar en quantum speedup experimentellt, är fördelen med hybridmetoden starkt verifierad, visar hur en potentiell quantum speedup kan utnyttjas och uppmuntrar ytterligare ansträngningar för att tillämpa strategin på problem av mer praktiskt intresse.
Mer nyligen Abbott et al. REF föreslog att sökandet efter inbäddning av problemet i annealer topologin kan vara avgörande i strävan att uppnå en kvanthastighet för en hybrid kvantklassisk algoritm.
209,951,889
A Hybrid Quantum-Classical Paradigm to Mitigate Embedding Costs in Quantum Annealing
{'venue': 'International Journal of Quantum Information 17(5), 1950042 (2019)', 'journal': None, 'mag_field_of_study': ['Physics', 'Computer Science']}
83,039
En uppmärksamhetsmekanism har nyligen använts för att förbättra neural maskinöversättning (NMT) genom att selektivt fokusera på delar av källmeningen under översättning. Det har dock varit lite arbete med att utforska användbara arkitekturer för uppmärksamhetsbaserade NMT. I detta dokument undersöks två enkla och effektiva klasser av uppmärksamhetsmekanism: en global strategi som alltid behandlar alla källord och en lokal som bara tittar på en delmängd av källord åt gången. Vi visar effektiviteten i båda tillvägagångssätten för WMT översättningsuppgifter mellan engelska och tyska i båda riktningarna. Med lokal uppmärksamhet uppnår vi en betydande vinst på 5,0 BLEU-poäng över icke-anslutna system som redan innehåller kända tekniker som t.ex. avhopp. Vår ensemblemodell med hjälp av olika uppmärksamhetsarkitekturer ger ett nytt toppmodernt resultat i WMT'15 engelska till tyska översättningsuppgift med 25,9 BLEU poäng, en förbättring med 1,0 BLEU poäng över det befintliga bästa systemet som stöds av NMT och en n-gram reranker. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
I REF användes uppmärksamhet för att göra det möjligt för modellen att delta i en delmängd av källorden i språköversättningsuppgiften.
1,998,416
Effective Approaches to Attention-based Neural Machine Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,040
Pfinder är ett realtidssystem för spårning och tolkning av människor. Det körs på en standard SGI Indy dator, och har utfört tillförlitligt på tusentals människor på många olika fysiska platser. Systemet använder en flerklassig statistisk modell av färg och form för att segmentera en person från en bakgrundsscen, och implementerar heuristik som kan hitta och spåra människors huvud och händer i ett brett spektrum av visningsförhållanden. Pfinder producerar en realtidsrepresentation av en användare användbar för applikationer som trådlösa gränssnitt, videodatabaser och kodning med låg bandbredd, utan besvärliga kablar eller anslutna sensorer.
I REF, Wren et al. Demonstrera systemet Pfinder som emp loyes en statistisk modell o f sam och form för att erhålla en 2D representation av huvud och händer.
67,443,912
Pfinder: real-time tracking of the human body
{'venue': 'Other Conferences', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']}
83,041
Abstract-Reinforcement lärande kan möjliggöra komplexa, adaptiva beteende läras automatiskt för autonoma robotiska plattformar. Men praktisk användning av förstärkande inlärningsmetoder måste kämpa med det faktum att själva utbildningsprocessen kan vara osäker för roboten. I den här artikeln anser vi att det specifika fallet med en mobil robot som lär sig att navigera i en tidigare okänd miljö samtidigt som man undviker kollisioner. För att lära sig undvika kollisioner måste roboten uppleva kollisioner under träningen. Höghastighetskollisioner, även vid träningstid, kan dock skada roboten. En framgångsrik inlärningsmetod måste därför gå försiktigt fram och bara uppleva kollisioner med låg hastighet tills den vinner förtroende. I detta syfte presenterar vi en osäkerhetsmedveten modellbaserad inlärningsalgoritm som uppskattar sannolikheten för kollision tillsammans med en statistisk uppskattning av osäkerhet. Genom att formulera en osäkerhetsberoende kostnadsfunktion visar vi att algoritmen naturligt väljer att gå försiktigt vidare i obekanta miljöer och ökar robotens hastighet i miljöer där den har stort självförtroende. Vår prediktiva modell är baserad på bootstrappade neurala nätverk med hjälp av dropout, vilket gör det möjligt att bearbeta rå sensoriska ingångar från högbandsbredd sensorer såsom kameror. Vår experimentella utvärdering visar att vår metod effektivt minimerar farliga kollisioner vid träningstid i en hinderundvikande uppgift för en simulerad och verklig fyrhjuling, och en verklig RC-bil. Videor av experimenten finns på https://sites.google.com/site/probcoll.
Approachen med REF utvecklar en osäkerhetsmedveten förstärkande inlärningsalgoritm för att uppskatta sannolikheten för att en mobil robot kolliderar med ett hinder i en okänd miljö.
5,349,381
Uncertainty-Aware Reinforcement Learning for Collision Avoidance
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,042
Sememer är minimala semantiska enheter av ordbetydelser, och betydelsen av varje ords betydelse är typiskt sammansatt av flera sememer. Eftersom sememer inte är explicita för varje ord, folk manuellt kommentera ordsememer och bilda språklig common-sense kunskapsbaser. I detta dokument presenterar vi att word sememe information kan förbättra ordrepresentation lärande (WRL), som kartlägger ord i en låg-dimensionell semantisk utrymme och fungerar som ett grundläggande steg för många NLP uppgifter. Nyckelidén är att använda ordsememer för att fånga exakta betydelser av ett ord i specifika sammanhang exakt. Mer specifikt följer vi ramen för Skip-gram och presenterar tre sememekodade modeller för att lära sig representationer av sememer, sinnen och ord, där vi tillämpar uppmärksamhetsschemat för att upptäcka ordsinnen i olika sammanhang. Vi utför experiment på två uppgifter inklusive ordlikhet och ord analogi, och våra modeller betydligt överträffar baslinjer. Resultaten visar att WRL kan dra nytta av sememes via uppmärksamhetsschemat, och även bekräfta att våra modeller kan korrekt modellera sememe information.
REF hävdade att med word sememe information i HowNet kan förbättra ordrepresentation.
9,471,817
Improved Word Representation Learning with Sememes
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,043
Eftersom sensornätverk är inbyggda i den fysiska världen, presenterar ett brett spektrum av buggar och missuppfostran kvalitativt skiljer sig från dem i de flesta distribuerade system. Tyvärr, på grund av resursbegränsningar, programmerare måste undersöka dessa buggar med endast begränsad synlighet i programmet. I detta dokument presenteras utformningen och utvärderingen av Sympati, ett verktyg för att upptäcka och avlusa fel i sensornätverk. Sympati har valt mätvärden som möjliggör effektiv feldetektering, och inkluderar en algoritm som rotorsakar fel och lokaliserar deras källor för att minska totala felaviseringar och peka användaren på ett litet antal sannolika orsaker. Vi beskriver Sympati och utvärderar dess prestanda genom felinjektion och genom att felsöka en aktiv applikation, ESS, i simulering och installation. Vi visar att för en bred klass av applikationer för datainsamling är det möjligt att upptäcka och diagnostisera fel genom att samla in och analysera en minimal uppsättning mätvärden vid en centraliserad diskho. Vi har funnit att det finns en kompromiss mellan anmälan latens och detektion noggrannhet, att ytterligare mätvärden trafik inte alltid förbättra notifiering latency, och att Sympatiens process för misslyckande lokalisering minskar primära fel anmälningar med minst 50% i de flesta fall.
I sensornätverk undersöker REF enkla mätvärden för nätverksprestanda.
7,165,570
Sympathy for the sensor network debugger
{'venue': "SenSys '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,044
Abstract-Communication säkerhet och tillförlitlighet är två viktiga frågor i alla nätverk. En typisk kommunikationsuppgift i ett trådlöst sensornätverk är för varje sensornod att känna sin lokala miljö, och på begäran, skicka data av intresse tillbaka till en basstation (BS). I detta dokument föreslås ett hybrid multipatsystem (H-SPREAD) för att förbättra både säkerheten och tillförlitligheten hos denna uppgift i ett potentiellt fientligt och opålitligt trådlöst sensornätverk. Det nya systemet är baserat på en distribuerad N-to-1 multipath discovery protokoll, som kan hitta flera nod-separata vägar från varje sensor nod till BS samtidigt i en rutt upptäckt process. Därefter föreslås ett system för insamling av hybriddata. Å ena sidan, end-to-end multipath dataspridning, i kombination med hemlig delning, ökar säkerheten för end-to-end dataleverans i den meningen att kompromissen av ett litet antal vägar inte kommer att resultera i kompromissen av ett datameddelande i ansiktet på kontradiktoriska noder. Å andra sidan, i ansiktet på opålitliga trådlösa länkar och / eller sensornoder, alternativ väg routing tillgängliga vid varje sensor nod förbättrar tillförlitligheten av varje paket överföring avsevärt. De omfattande simuleringsresultaten visar att hybridmultipatsystemet är mycket effektivt när det gäller att på ett smidigt sätt förbättra både säkerheten och tillförlitligheten hos datainsamlingstjänsten.
I sitt seminala papper visar REF matematiskt och empiriskt att både säkerheten och tillförlitligheten hos ett trådlöst sensornätverk kan förbättras genom multipatrouting.
8,211,609
H-SPREAD: a hybrid multipath scheme for secure and reliable data collection in wireless sensor networks
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
83,045
Deep Neural Networks (DNN) är kraftfulla modeller som har uppnått utmärkta resultat på svåra inlärningsuppgifter. Även om DNN fungerar bra när stora märkta träningsset finns tillgängliga, kan de inte användas för att kartlägga sekvenser till sekvenser. I detta dokument presenterar vi en allmän end-to-end strategi för sekvensinlärning som gör minimala antaganden om sekvensstrukturen. Vår metod använder en flerskiktad Long Short-Term Memory (LSTM) för att kartlägga indatasekvensen till en vektor av en fast dimensionalitet, och sedan ytterligare en djup LSTM för att avkoda målsekvensen från vektorn. Vårt huvudsakliga resultat är att på en engelsk till fransk översättning uppgift från WMT-14 dataset, de översättningar som produceras av LSTM uppnå en BLEU-poäng på 34.8 på hela testet, där LSTM: s BLEU-poäng straffades på out-of-vokabulary ord. Dessutom hade LSTM inga svårigheter med långa meningar. Som jämförelse uppnår ett frasbaserat SMT-system en BLEU-poäng på 33,3 på samma datauppsättning. När vi använde LSTM för att omvärdera de 1000 hypoteser som producerades av det tidigare nämnda SMT-systemet, ökar BLEU-poängen till 36,5, vilket är nära den senaste tekniken. LSTM lärde sig också förnuftiga uttryck och meningsrepresentationer som är känsliga för ordordning och är relativt invarianta för den aktiva och passiva rösten. Slutligen fann vi att vända ordningen av orden i alla käll meningar (men inte mål meningar) förbättrade LSTM: s prestanda markant, eftersom det införde så många kortsiktiga beroenden mellan källan och mål mening som gjorde optimeringsproblemet lättare.
REF undersöka sekvens-till-sekvens modeller som består av en neural nätverk kodare och dekoder för maskinöversättning.
7,961,699
Sequence to Sequence Learning with Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,046
Utbildning av storskaliga djupa neurala nätverk begränsas ofta av tillgängliga beräkningsresurser. Vi studerar effekten av begränsad precision data representation och beräkning på neurala nätverk utbildning. Inom ramen för låga precisionsberäkningar, observerar vi avrundningsschemat för att spela en avgörande roll för att bestämma nätverkets beteende under utbildningen. Våra resultat visar att djupa nätverk kan tränas med endast 16-bitars bred fast punkt nummer representation när du använder stokastisk avrundning, och medför lite till ingen försämring i klassificeringen noggrannhet. Vi demonstrerar också en energieffektiv hårdvaruaccelerator som implementerar låg precision fast punkt aritmetik med stokastisk avrundning.
I REF presenterar författarna en omfattande studie om effekten av låg precision fast punktberäkning för djupt lärande.
2,547,043
Deep Learning with Limited Numerical Precision
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,047
Bakgrund: Experter anser att hälsoinformationsteknik är nyckeln till att förbättra effektiviteten och kvaliteten på hälso- och sjukvården. Syfte: Att systematiskt granska informationsteknikens inverkan på hälso- och sjukvårdens kvalitet, effektivitet och kostnader. Författarna sökte systematiskt igenom den engelskspråkiga litteraturen indexerad i MEDLINE (1995 ( till januari 2004, Cochrane Central Register of Controlled Trials, Cochrane Database of Abstracts of Reviews of Effects, and the Periodical Abstracts Database. Vi har också lagt till undersökningar som gjorts av experter fram till april 2005. Deskriptiva och jämförande studier och systematiska utvärderingar av hälsoinformationsteknik. Två granskare tog självständigt fram information om systemkapacitet, design, effekter på kvalitet, systeminhämtning, genomförande kontext och kostnader. Datasyntes: 257 studier uppfyllde inklusionskriterierna. I de flesta studier behandlades beslutsstödsystem eller elektroniska patientjournaler. Cirka 25 % av studierna kom från fyra akademiska institutioner som implementerade internt utvecklade system; endast 9 studier utvärderade multifunktionella, kommersiellt utvecklade system. Tre viktiga kvalitetsvinster har påvisats: ökad efterlevnad av riktlinjebaserad vård, förbättrad övervakning och övervakning samt minskade felmedicinering. Det primära området för förbättring var förebyggande hälsa. Den största effektivitetsvinsten visade sig vara minskad användning av vård. Data om en annan effektivitetsmått, tidsanvändning, blandades. Empiriska kostnadsuppgifter var begränsade. Begränsningar: Tillgänglig kvantitativ forskning var begränsad och utfördes av ett litet antal institutioner. Systemen var heterogena och beskrevs ibland ofullständigt. Tillgängliga finansiella och kontextuella uppgifter var begränsade. Fyra referensinstitutioner har visat hur effektiv hälsoinformationstekniken är när det gäller att förbättra kvaliteten och effektiviteten. Huruvida och hur andra institutioner kan uppnå liknande fördelar och till vilka kostnader är oklara. Ann AT-läkare. 2006;144:742-752. www.annals.org För upphovsmän, se slutet av texten. Experter på hälso- och sjukvård, beslutsfattare, betalare och konsumenter anser att hälsoinformationsteknik, såsom elektroniska patientjournaler och datoriserade leverantörsorder, är avgörande för att omvandla hälso- och sjukvården (1-7). Informationshantering är grundläggande för hälso- och sjukvården (8). Med tanke på hälso- och sjukvårdens fragmenterade karaktär, den stora mängden transaktioner i systemet, behovet av att integrera nya vetenskapliga rön i praktiken och andra komplexa informationshanteringsåtgärder är begränsningarna i pappersbaserad informationshantering intuitivt uppenbara. Även om fördelarna med hälsoinformationsteknik är tydliga i teorin, har det visat sig vara svårt att anpassa nya informationssystem till hälso- och sjukvården och användningen har varit begränsad (9-11). De flesta IT-tillämpningar har fokuserat på administrativa och finansiella transaktioner snarare än på att tillhandahålla klinisk vård (12). Myndigheten för hälso- och sjukvård forskning och kvalitet bad oss att systematiskt granska bevis på kostnader och fördelar i samband med användning av hälsoinformationsteknik och att identifiera luckor i litteraturen för att ge organisationer, beslutsfattare, kliniker och konsumenter en förståelse för hälsoinformationsteknikens effekt på klinisk vård (se evidensrapport på www.ahrq.gov). Bland de många möjliga fördelarna och kostnaderna med att införa hälsoinformationsteknik fokuserar vi här på tre viktiga områden: hälsoinformationsteknikens effekter på kvalitet, effektivitet och kostnader. METODER Vi använde expertutlåtanden och litteraturöversikter för att utveckla analytiska ramar (Tabell) som beskriver de komponenter som ingår i genomförandet av hälsoinformationsteknik, typer av hälsoinformationssystem och den funktionella kapaciteten hos ett omfattande hälsoinformationstekniksystem (13). Vi ändrade ett ramverk för kliniska fördelar från Institute of Medicines 6 mål för vård (2) och utvecklade ett ramverk för kostnader med hjälp av expertsamförstånd som inkluderade åtgärder som initiala kostnader, löpande drift- och underhållskostnader, andel av hälsoinformationsteknik penetration, och produktivitetsvinster. Finansiella förmåner delades upp i penningförmåner (dvs. förmåner uttryckta i dollar) och icke-monetariserade förmåner (dvs. förmåner som inte kunde uttryckas direkt i dollartermer men som kunde tilldelas dollarvärden). Vi gjorde 2 sökningar (i november 2003 och januari 2004) av engelskspråkig litteratur indexerad i MEDLINE (1995 till januari 2004) med hjälp av en bred uppsättning termer för att maximera känslighet. (Se den fullständiga listan över sökord och sekvens av frågor i den fullständiga bevisrapporten på www.ahrq.gov.) Vi sökte också i Cochrane Central Register of Controlled Trials, Cochrane Database of Abstracts of Reviews of Effects, and the Periodical Abstracts Database; handsökta personliga bibliotek som hålls av innehållsexperter och projektpersonal; och minerade bibliografier av artiklar och systematiska utvärderingar för citeringar. Vi bad innehållsexperter att identifiera opublicerad litteratur. Slutligen bad vi innehållsexperter och expertgranskare att identifiera nyligen publicerade artiklar fram till april 2005. Två oberoende granskare valdes ut för detaljerad granskning av följande typer av artiklar som handlade om hur ett hälsotekniksystem fungerar eller genomförs: systematiska utvärderingar, inklusive metaanalyser, beskrivande "kvalitativa" rapporter som fokuserade på undersökning av hinder och kvantitativa rapporter. Vi klassificerade kvantitativa rapporter som "hypotestest" om utredarna jämförde data mellan grupper eller över tidsperioder och använde statistiska tester för att bedöma skillnader. Vi kategoriserade ytterligare hypotesteststudier (till exempel randomiserade och icke-randomiserade, kontrollerade prövningar, kontrollerade före och efter studier) beroende på om en parallell jämförelsegrupp användes. Hypotestestningsstudier utan en parallell jämförelsegrupp inkluderade de som använde enkla pre-post, tidsserier och historiska kontrollkonstruktioner. Återstående hypotestestade studier klassificerades som tvärsnittsdesign och andra. Vi klassificerade kvantitativa rapporter som en "prediktiv analys" om de använde metoder som statistisk modellering eller expertpaneler uppskattningar för att förutsäga vad som kan hända med genomförandet av hälsoinformationsteknik snarare än vad som har hänt. I dessa studier användes vanligtvis hybridmetoder som ofta blandade primärdatainsamling med sekundär datainsamling samt expertutlåtanden och antaganden för att göra kvantitativa uppskattningar för data som annars inte hade mätts empiriskt. I allmänhet ingick kostnadseffektivitets- och kostnadsnyttostudier i denna grupp. Två granskare bedömde självständigt och extraherade detaljer om utvalda artiklar med hjälp av standardiserade abstraktionsformer och löste diskrepanser genom konsensus. Vi använde sedan berättarsyntesmetoder för att integrera fynd i beskrivande sammanfattningar. Varje institution som stod för mer än 5 % av det totala urvalet av 257 dokument utsågs till forskningsledare. Vi grupperade synteser efter institution och efter om systemen var kommersiellt eller internt utvecklade. Detta arbete producerades under Byrån för hälso- och sjukvårdsforskning och kvalitetskontrakt nr. Vad är det som händer? Förutom myndigheten för hälso- och sjukvård forskning och kvalitet, detta arbete finansierades också av kontoret för biträdande sekreterare för planering och utvärdering, USA: s Department of Health and Human Services, och Office of Disease Prevention and Health Promotion, USA: s Department of Health and Human Services. Finansieringskällorna spelade ingen roll i utformningen, analysen eller tolkningen av studien eller i beslutet att lämna in manuskriptet för publicering. Av 867 artiklar avvisade vi 141 under den inledande screeningen: 124 för att inte ha hälsoinformationsteknik som ämne, 4 för att inte rapportera relevanta resultat och 13 av andra skäl (kategorier som inte utesluter varandra). Av de återstående 726 artiklarna uteslöt vi 469 beskrivande rapporter som inte undersökte hinder (figur). Vi Health Information Technology har visat sig förbättra kvaliteten genom att öka följsamheten till riktlinjer, förbättra sjukdomsövervakningen och minska medicineringsfel. Mycket av bevisen på kvalitetsförbättring avser primär och sekundär förebyggande vård. Den största effektivitetsvinsten har varit minskad användning av vård. Effekten på tidsanvändningen är blandad. Empiriskt uppmätta kostnadsuppgifter är begränsade och ofullständiga. Merparten av den högkvalitativa litteraturen om multifunktionella hälsoinformationssystem kommer från fyra referensforskningsinstitut. Det finns få belägg för effekterna av multifunktionella kommersiellt utvecklade system. Det finns få belägg för interoperabilitet och konsumentinformationsteknik. En stor begränsning av litteraturen är dess allmängiltighet. Förbättring av patientvården Rapporterna behandlade följande typer av primära system: beslutsstöd riktat till leverantörer (63 %), elektroniska patientjournaler (37 %) och datoriserade leverantörsorder (13 %). Särskilda funktioner hos de system som beskrevs i rapporterna omfattade elektronisk dokumentation (31 %), orderinmatning (22 %), resultathantering (19 %) och administrativ kapacitet (18 %). Endast 8 % av de beskrivna systemen hade särskild kapacitet för konsumenthälsa, och endast 1 % hade kapacitet som gjorde det möjligt för system från olika anläggningar att ansluta sig till varandra och dela data på ett driftskompatibelt sätt. De flesta studier (n på 125) utvärderade effekten av systemen i öppenvården. Av de 213 hypotesteststudierna innehöll 84 vissa kostnadsuppgifter. I flera studier bedömdes insatser med begränsad funktionalitet, t.ex. fristående beslutsstödsystem (15) (16) (17). Sådana studier ger begränsad information om frågor som dagens beslutsfattare ställs inför när de väljer och tillämpar hälsoinformationsteknik. Därför betonar vi hellre i följande punkter studier som genomfördes i USA, som hade empiriskt uppmätta data om multifunktionella system, och som inkluderade hälsoinformation och datalagring i form av elektronisk dokumentation eller orderinmatningskapacitet. Prediktiva analyser exkluderades. Sjuttiosex studier uppfyllde dessa kriterier: 54 från de fyra riktmärkesledarna och 22 från andra institutioner. De system för hälsoinformationsteknik som utvärderats av riktmärkesledarna delade många egenskaper. Alla system var multifunktionella och inkluderade beslutsstöd, alla var internt utvecklade av forskningsexperter vid respektive akademiska institutioner, och alla hade allt större möjligheter under flera år. Dessutom använde de flesta rapporterade studier av dessa system forskningskonstruktioner med hög intern giltighet (t.ex. randomiserade, kontrollerade studier). Bilaga Tabell 1 (18 -71) (finns på www.annals.org) ger en strukturerad sammanfattning av varje studie från de fyra referensinstituten. Denna tabell omfattar även studier som uppfyller de kriterier för inkludering som inte anges i denna syntes (26, 27, 30, 39, 40, 53, 62, 65, 70, 71). Uppgifterna stödde fem primära teman (3 direkt relaterade till kvalitet och 2 inriktade på effektivitet). Genomförandet av ett multifunktionellt informationssystem för hälso- och sjukvård hade följande effekter: 1) ökad tillförsel av vård i enlighet med riktlinjer och protokoll, 2) ökad kapacitet att utföra övervakning och övervakning för sjukdomstillstånd och vårdleverans, 3) minskning av antalet medicineringsfel, 4) minskat utnyttjande av vård och 5) blandade effekter på tidsanvändningen. Hälsoinformationsteknikens viktigaste effekt på vårdens kvalitet var dess roll för att öka efterlevnaden av riktlinje- eller protokollbaserad vård. Beslutsstöd, vanligen i form av datoriserade påminnelser, var en del av alla uppföljningsstudier. Beslutsstödfunktionerna var vanligtvis inbäddade i elektroniska patientjournaler eller datoriserade leverantörsordersystem. Elektroniska patientjournalsystem undersöktes oftare i öppenvården, och system för orderinmatning bedömdes oftare i slutenvården. Förbättringar i processerna för vårdleveranser varierade från absoluta ökningar på 5 till 66 procentenheter, med störst ökning av klustret i intervallet 12 till 20 procentenheter. Tolv av de 20 uppföljningsstudierna undersökte effekterna av hälsoinformationsteknik för att förbättra den förebyggande hälso- och sjukvården (18, 21-25, 29, 31-33, 35 och 37). Åtta studier omfattade åtgärder för primär förebyggande vård (18, 21-25, 31, 33), 4 studier inkluderade sekundära förebyggande åtgärder (29, 33, 35, 37) och 1 studie bedömde screening (ej ömsesidigt uteslutande) (32). De vanligaste primära förebyggande åtgärderna som undersöktes var antalet influensavaccinationer (förbättring, 12 till 18 procentenheter), vaccinationer med pneumokocker (förbättring, 20 till 33 procentenheter) och ockulta blodprover av avföring (förbättring, 12 till 33 procentenheter) (18, 22, 24). I tre studier undersöktes hälsoinformationsteknikens effekt på sekundär preventiv vård för komplikationer relaterade till sjukhusvistelse. En klinisk kontrollerad studie som använde datoriserad övervakning och identifiering av högriskpatienter plus varningar till läkare visade en absolut minskning på 3,3 procentenhet (från 8,2 % till 4,9%) vid en kombinerad primär slutpunkt för djup ventrombos och lungemboli hos högriskpatienter på sjukhus (29). En tidsseriestudie visade en absolut minskning på 5 procent i förebyggande av trycksår hos patienter på sjukhus (35), och en annan visade en absolut minskning på 0,4 procent i postoperativa infektioner (37). Även om de flesta beläggen för kvalitetsförbättringar relaterade till hälsoinformationsteknik genom förbättrad efterlevnad av riktlinjer inriktade på förebyggande vård, omfattade andra studier ett varierat utbud för olika typer av vård, inklusive hyper- Det andra temat visade hälsoinformationsteknikens förmåga att förbättra kvaliteten på vården genom klinisk övervakning baserad på storskalig screening och aggregering av data. Dessa studier visade hur hälsoinformationsteknik kan stödja nya sätt att tillhandahålla vård som inte är genomförbara med pappersbaserad informationshantering. I en studie undersökte prövarna mer än 90 000 sjukhusintagningar för att identifiera frekvensen av biverkningar (43); de fann en frekvens på 2, 4 händelser/ 100 intagningar. Biverkningarna förknippades med en absolut ökning av den grova dödligheten på 2,45 procentenheter och en kostnadsökning på 2262 dollar, främst på grund av en 1,9-dagars ökning av vistelsens längd. Två studier från Evans och kollegor (44, 45) rapporterade med hjälp av ett elektroniskt hälsoregister för att identifiera biverkningar, undersöka deras orsak och utveckla program för att minska deras frekvens. I den första studien utformade forskarna insatser på grundval av elektronisk hälsokontroll som ökade den absoluta identifieringen av biverkningar med 2,36 procentenheter (från 0,04 % till 2,4 %) och minskade andelen biverkningar med 5,4 procentenheter (från 7,6 % till 2,2 %) (44). I rapporten beskrevs inte detaljer om de insatser som använts för att minska negativa läkemedelshändelser. I den andra studien använde forskarna elektronisk hälsokontroll av nästan 61 000 slutna patienter för att fastställa att biverkningar orsakar en 1,9-dagars ökning av sjukhusvistelsens längd och en ökning med 1939 dollar i avgifter (45). Tre studier från Veterans Affairs-systemet undersökte övervaknings- och dataaggregationskapaciteten för hälsoinformationssystem för att underlätta kvalitetsmätning. Automatiserad kvalitetsmätning befanns vara mindre arbetsintensiv, men 2 av studierna fann viktiga metodologiska begränsningar som påverkade giltigheten av automatiserad kvalitetsmätning. Till exempel fann en studie höga nivåer av falskt positiva resultat med användning av automatiserad kvalitetsmätning och indikerade att sådana metoder kan ge partiska resultat (41). Den andra studien visade att automatiserade frågor från datoriserade sjukdomsregister underskattade slutförandet av kvalitetsprocesser jämfört med manuella diagram abstraktion av elektroniska patientjournaler och källor papper diagram (42). Slutligen undersöktes i två studier den roll som systemen för övervakning av hälsoinformationsteknik har när det gäller att identifiera utbrott av smittsamma sjukdomar. I den första studien konstaterades att användningen av ett länsbaserat elektroniskt system för rapportering av resultat ledde till en absolut ökning på 29 procent i fall av shigellos som identifierades under ett utbrott och en minskning på 2,5 dagar i identifierings- och folkhälsorapporteringstid (38). Den andra studien visade en absolut ökning på 14 procent i identifiering av sjukhusförvärvade infektioner och en 65 procents relativ minskning av identifieringstiden (från 130 till 46 timmar) (46). Den tredje hälsoinformationsteknikens medierade effekt på kvaliteten var en minskning av medicineringsfel. Två studier av datoriserad orderingång från LDS Hospital (51, 52) visade statistiskt signifikanta minskningar av biverkningar, och en tredje studie av Bates och kollegor (49) visade en icke-statistiskt signifikant trend mot minskade läkemedelshändelser och en stor minskning av medicineringsfel. Den första LDS sjukhusstudien använde en kohort med historisk kontrolldesign för att utvärdera effekten av datoriserade varningar på antibiotikaanvändning (52). Jämfört med en 2-årig preinterventionsperiod noterades många statistiskt signifikanta förbättringar, inklusive en minskning av antibiotikarelaterade biverkningar (från 28 till 4 händelser), kortare vistelser (från 13 till 10 dagar) och en minskning av de totala sjukhuskostnaderna (från 35 283 till 26 315). Den andra studien från LDS-sjukhuset visade 0,6 procentenhet (från 0,9 % till 0,3 %) absolut minskning av antibiotiska biverkningar (51). Bates och kollegor undersökte biverkningar och visade en 17% icke-statistiskt signifikant trend mot en minskning av dessa händelser (49). Även om detta resultat inte nådde statistisk signifikans var biverkningar inte huvudfokus i utvärderingen. Den primära slutpunkten för denna studie var en surrogatslutpunkt för biverkningar: icke-intercepterade allvarliga medicineringsfel. Denna slutpunkt visade en statistiskt signifikant relativ minskning på 55 %. Resultaten från denna studie stöddes ytterligare av en andra uppföljningsstudie av samma forskare som undersökte den långsiktiga effekten av det implementerade systemet (48). Efter den första publicerade studien analyserade forskargruppen negativa läkemedelshändelser som inte förhindrades av den datoriserade leverantörens orderingång, och nivån på beslutsstöd höjdes. Denna andra studie använde en tidsserie design och fann en 86% relativ minskning av icke-intercepterade allvarliga medicinering fel. Systemen för hälsoinformation minskar också medicineringsfelen genom att medicineringen förbättras. Förbättringarna av doseringen varierade från 12% till 21%; det primära resultatet undersöktes var doser som förskrivits inom det rekommenderade intervallet och var centrerade på antibiotika och antikoagulantia (47, 50, 51). Studierna undersökte 2 primära typer av teknikrelaterade effekter på effektiviteten: användning av vård och leverantörstid. Elva studier undersökte hälsoinformationssystemens effekt på utnyttjandet av vården. Åtta visade minskad utnyttjandegrad inom hälso- och sjukvården (54 -61); datoriserade system för orderinträde som gav beslutsstöd vid vårdtillfället var de primära interventionerna som ledde till minskad användning. Typer av beslutsstöd inkluderade automatisk beräkning av pretestsannolikhet för diagnostiska tester, visning av tidigare testresultat, visning av laboratorietestkostnader och datoriserade påminnelser. Absoluta minskningar i utnyttjandegraden varierade från 8,5 till 24 procentenheter. De primära tjänster som berördes var laboratorie- och radiologitester. De flesta studier bedömde inte lämpligheten av den minskade användningen av tjänster utan rapporterade istället effekten av hälsoinformationsteknik på utnyttjandegraden. I de flesta studier mättes inte kostnadsbesparingarna direkt. Istället översatte forskare nonmonetized minskningar i tjänster till monetariserade uppskattningar genom den genomsnittliga kostnaden för den undersökta tjänsten vid den institutionen. En stor studie från Tierney och kollegor undersökte direkta totala kostnader per antagning som sin huvudsakliga slutpunkt och fann en 12,7% absolut minskning (från $6964 till $6077) i kostnader i samband med en 0,9-dagars minskning av vistelsens längd (57). Hälsoinformationsteknikens inverkan på leverantörstiden var blandad. Två studier från Regenstrief Institute som undersökte inpatientorder visade ökad läkartid relaterad till datoranvändning (57, 64). En annan studie om öppenvård av elektroniska patientjournaler från Partners Health Care visade en kliniskt försumbar ökning av besökstiden på 0,5 minuter (67). Studier tydde på att tidsbehovet minskade i takt med att läkarna blev vana vid systemen, men formella långtidsutvärderingar fanns inte tillgängliga. Två studier visade en liten minskning av dokumentationsrelaterad omvårdnadstid (68, 69) som berodde på effektivisering av arbetsflödet. En studie undersökte total tid till förlossning och fann en 11% minskning av tiden för behandling genom användning av datoriserad orderingång med varningar till läkare sökare (66). Uppgifterna om kostnaderna var mer begränsade än uppgifterna om kvalitet och effektivitet. Sexton av de 54 studierna innehöll vissa uppgifter om kostnader (20, 28, 31, 36, 43, 47, 50 -52, 54 -58, 63, 71). De flesta av de kostnadsuppgifter som fanns tillgängliga från de institutionella ledarna gällde förändringar i utnyttjandet av tjänster på grund av hälsoinformationsteknik. Endast tre studier hade kostnadsuppgifter om aspekter av systemimplementering eller underhåll. Två studier gav datalagringskostnader, som dock var mer än 20 år gamla och därför var av begränsad betydelse (28, 58). Den tredje rapporterade att kostnaderna för underhåll av systemet uppgick till 700 000 dollar (31). Eftersom dessa system har byggts, genomförts och utvärderats stegvis över tiden, och i vissa fall fått stöd genom forskningsbidrag, är det osannolikt att de totala kostnaderna för utveckling och genomförande kan beräknas exakt och i detalj. Bilaga Tabell 2 (finns på www.annals.org) sammanfattar de 22 studierna (72-93) från övriga institutioner. De flesta av dessa studier utvärderade internt utvecklade system vid akademiska institutioner. De typer av fördelar som konstaterades i dessa studier liknade dem som påvisades i referensinstituten, även om ett ytterligare tema var kopplat till de initiala genomförandekostnaderna. Till skillnad från de flesta studier från referensinstitutionerna, som använde randomiserade eller kontrollerade kliniska prövningar, var de vanligaste modellerna av studierna från andra institutioner pre-post och tidsserier konstruktioner som saknade en samtidig jämförelsegrupp. Tretton av de 22 studierna utvärderade internt utvecklade system (72-84). Endast 9 utvärderade kommersiella informationssystem för hälso- och sjukvård. Eftersom många beslutsfattare sannolikt kommer att överväga att införa ett kommersiellt utvecklat system snarare än att internt utveckla sitt eget, beskriver vi dessa nio studier i följande punkter. I två studier undersöktes systemens effekt på vårdutnyttjandet (85, 86). Båda var etablerade i Kaiser Permanente's Pacific Northwest region och utvärderade samma elektroniska patientjournalsystem (Epic Systems Corp., Verona, Wisconsin) vid olika perioder genom tidsserier. En studie (1994–1997) stödde resultaten från referensinstituten och visade ett minskat utnyttjande av två radiologitester efter införandet av elektroniska patientjournaler (85), medan den andra studien (2000–2004) inte visade någon definitiv minskning av användningen av radiologi och laboratorietjänster (86). Till skillnad från rapporterna från referensinstituten visade denna andra studie inte heller några statistiskt signifikanta förbättringar av tre processaa kvalitetsmätningar. Den fann en statistiskt signifikant minskning av åldersjusterade totala kontorsbesök per medlem: en relativ minskning med 9 % år 2 efter införandet av den elektroniska hälsojournalen. Telefonbaserad vård visade en relativ ökning på 65% under samma tid. En tredje studie utvärderade detta elektroniska hälsorekord och fokuserade på effektivitet; det visade att läkare tog 30 dagar att återgå till sin utgångsnivå produktivitet efter genomförandet och att besökstiden ökade i genomsnitt med 2 minuter per möte (87). Två studier som ingick i samma randomiserade försök från Rollman och kollegor, som sattes vid University of Pittsburgh, undersökte användningen av en elektronisk hälsojournal (MedicaLogic Corp., Beaverton, Oregon) med beslutsstöd för att förbättra vården av depression (88, 89). I den första studien utvärderades elektronisk hälsojournalbaserad övervakning för att förbättra depressionsscreening. Liksom i övervakningsstudierna från referensinstituten fann man elektronisk hälsokontroll för att stödja nya sätt att organisera vården. Läkare kom överens om 65% av de datorscreenade diagnoserna 3 dagar efter att ha fått meddelande om resultaten. I den andra fasen av studien genomfördes två olika elektroniska beslutsstödinsatser baserade på hälsojournaler för att förbättra efterlevnaden av riktlinjebaserad behandling för depression. Till skillnad från de effekter på följsamheten som setts hos referensinstituten visade ingen av interventionerna statistiskt signifikanta skillnader jämfört med vanlig vård. Två pre-post studier från Ohio State University utvärderade effekten av en kommersiell datoriserad order-entry system (Siemens Medical Solutions Health Services Corp., Malvern, Pennsylvania) på tidsanvändning och medicinering fel (90, 91). Liksom i referensinstituten minskade vårdtiden dramatiskt jämfört med perioden innan ordningen infördes. Relativa minskningar i andra utfall var följande: medicineringens vändningstid, 64 % (90) och 73 % (91), radiologins avslutningstid, 43 % (90) och 24 % (91) och resultatens rapporteringstid, 25 % (90). Användningen av datoriserad leverantörsorder hade stora effekter på medicineringsfel i båda studierna. Före genomförandet hade 11,3 % (90) och 13 % (91) av beställningarna transkriptionsfel; därefter eliminerades dessa fel helt. I en studie bedömdes vistelsens längd och man fann att den minskade med 5%; den totala kostnaden för sjukhusvistelse visade dock inga statistiskt signifikanta skillnader (90). Däremot visade en tredje studie som undersökte orderingångens effekt på sjuksköterskedokumentationens tid inga fördelar (92). I motsats till alla tidigare studier om datorsystem för orderinträde använde en studie av Koppel och kollegor en blandad kvantitativ-kvalitativ metod för att undersöka den eventuella rollen av ett sådant system (Eclipsys Corp., Boca Raton, Florida) för att underlätta medicineringsfel (93). Tjugotvå typer av risker för felmedicinering konstaterades underlättas av datorbeställningar, som hänför sig till två grundläggande orsaker: fragmentering av data och brister i gränssnittet mellan människa och maskin. Dessa 9 studier rapporterade eller mätte sällan data om kostnader och kontextuella faktorer. Två rapporterade uppgifter om kostnader (90, 92). Varken beskrev de totala initialkostnaderna för inköp eller genomförande av systemet som ska utvärderas. Data om kontextuella faktorer såsom ersättningsmix, graden av capitation och hinder som uppstod under genomförandet var knappa; endast två studier inkluderade sådan information. I Koppels och kollegornas studie (93) ingick detaljerad kontextuell information om mänskliga faktorer. I en hälsostudie rapporterades läkarklassrumsutbildningstid på 16 timmar före implementering (87). En annan inskrivningsstudie rapporterade att sjuksköterskor fick 16 timmars utbildning, kontorspersonal fick 8 timmar och läkare fick 2 till 4 timmar (91). Hittills har litteraturen om hälso- och sjukvårdsteknik visat på många viktiga kvalitets- och effektivitetsrelaterade fördelar samt begränsningar i fråga om allmängiltighet och empiriska uppgifter om kostnader. Studier från fyra referensledare visar att införandet av ett multifunktionellt system kan ge verkliga fördelar i form av ökad vård på grundval av riktlinjer (särskilt inom området förebyggande hälsa), förbättrad övervakning och övervakning, minskning av medicineringsfel och minskad utnyttjandegrad för potentiellt överflödig eller olämplig vård. Den metod som används av riktmärkesledarna för att komma till denna punkt-den stegvisa utvecklingen under många år av ett internt utformat system som leds av akademiska forskningsmästare-är dock osannolikt att vara ett alternativ för de flesta institutioner överväger genomförandet av hälsoinformationsteknik. Studier från dessa fyra referensinstitutioner har visat hur effektiv hälsoinformationstekniken är för att förbättra kvaliteten och effektiviteten. Dessa teknikers effektivitet i de praktiska sammanhang där de flesta hälso- och sjukvårdstjänster tillhandahålls är dock fortfarande mindre tydlig. Effektivitet och allmängiltighet är av särskild betydelse på detta område, eftersom hälsoinformationsteknik är verktyg som stöder tillhandahållandet av vård, i och för sig inte förändrar sjukdomstillstånd eller hälsotillstånd. Hur dessa verktyg används och i vilket sammanhang de genomförs är därför av avgörande betydelse (94 - 96). För leverantörer som överväger ett kommersiellt tillgängligt system som installerats som ett paket finns endast ett begränsat material tillgängligt för att informera beslutsfattandet. De tillgängliga bevisen kommer främst från tidsserier eller pre-post studier, härrör från en personalmodell hanterad vårdorganisation eller akademiska vårdcentraler, och gäller ett begränsat antal processåtgärder. Dessa data stöder i allmänhet resultaten av studier från referensinstitutionerna om hälsoinformationsteknikens inverkan på att minska användnings- och medicineringsfel. De stöder dock inte resultaten av ökad efterlevnad av protokollbaserad vård. Publicerade bevis på den information som behövs för att fatta välgrundade beslut om att förvärva och genomföra hälsoinformationsteknik i samhällsmiljöer är nästan obefintlig. Det är till exempel svårt att hitta potentiellt viktiga bevis för initiala kapitalkostnader, effekter på leverantörernas produktivitet, resurser som krävs för personalutbildning (t.ex. tid och kompetens) och omdesign av arbetsflödet i den peer-reviewade litteraturen. Det saknas också nyckeluppgifter om ekonomiska förhållanden, såsom graden av capitation, som av en modell har föreslagits vara en viktig faktor när det gäller att definiera affärsmässiga skäl för elektronisk hälsojournalanvändning (97). Flera systematiska utvärderingar med anknytning till hälsoinformationsteknik har gjorts. De har dock begränsats till specifika system, såsom datoriserad leverantörsbeställning (98); funktioner, såsom datoriserade påminnelser (99, 100); eller klinisk specialitet (101). Ingen undersökning hittills har granskat ett brett spektrum av hälsoinformationsteknik. För att göra våra resultat så relevanta som möjligt för det breda spektrumet av intressenter som är intresserade av hälsoinformationsteknik har vi dessutom utvecklat en webhosted databas över våra forskningsresultat. Denna databas gör det möjligt för olika intressenter att hitta den litteratur som är mest relevant för deras genomförandeförhållanden och deras informationsbehov. Denna studie har flera viktiga begränsningar. Den första rör litteraturens mängd och omfattning. Även om vi gjorde en omfattande sökning, identifierade vi bara en begränsad uppsättning artiklar med kvantitativa data. På många viktiga områden fann vi få studier. Detta gäller särskilt för tillämpningar av hälsoinformationsteknik som är relevanta för konsumenterna och för interoperabilitet, områden som är av avgörande betydelse för förmågan för hälsoinformationstekniken att i grunden förändra hälso- och sjukvården. En andra begränsning gäller syntetiseringen av effekten av ett brett spektrum av tekniker. Vi försökte ta itu med denna begränsning genom att basera vårt arbete på väldefinierade analytiska ramar och genom att identifiera inte bara de system som används utan även deras funktionella kapacitet. En tredje gäller heterogeniteten i rapporteringen. Beskrivningarna av system för hälsoinformationsteknik var ofta mycket begränsade, vilket gjorde det svårt att bedöma om vissa systemfunktioner saknades eller helt enkelt inte rapporterades. På samma sätt rapporterades begränsad information om den övergripande genomförandeprocessen och den organisatoriska kontexten. Denna översyn väcker många frågor som är centrala för ett brett spektrum av intressenter inom hälso- och sjukvården, däribland leverantörer, konsumenter, beslutsfattare, teknikexperter och leverantörer inom den privata sektorn. Införandet av hälsoinformationsteknik har blivit ett av de få initiativ som fått brett stöd, tvåpartsinitiativ inom den fragmenterade och ofta omtvistade hälso- och sjukvårdssektorn (102). För närvarande syftar ett stort antal statliga och federala lagar till att utvidga användningen av hälsoinformationsteknik (103–105). Hälsovårdsförbättringsorganisationer som Leapfrog Group förespråkar starkt införandet av hälsoinformationsteknik som en viktig aspekt av hälso- och sjukvårdsreformen. Politiska diskussioner handlar om huruvida läkare ersättning bör ändras, med högre ersättningar för dem som använder hälsoinformationsteknik (106). Två kritiska frågor som återstår är 1) vilka kommer att vara fördelarna med dessa initiativ och 2) vem kommer att betala och vem kommer att gynnas? När det gäller det förstnämnda kommer en oproportionerlig mängd litteratur om de fördelar som har realiserats från en liten uppsättning tidigt utvecklade institutioner som har infört internt utvecklade system för hälsoinformationsteknik. Dessa institutioner hade stor sakkunskap inom hälsoinformationsteknik och genomförde system under långa perioder på ett gradvist, iterativt sätt. I denna litteratur saknas data om hur man implementerar multifunktionella hälsoinformationssystem i andra hälso- och sjukvårdsmiljöer. Internt utvecklade system är sannolikt inte genomförbara som modeller för storskalig användning av hälsoinformationsteknik. De flesta metoder och organisationer kommer att anta ett kommersiellt utvecklat system för hälsoinformationsteknik, och med tanke på logistiska begränsningar och budgetfrågor kommer deras genomförandecykler att bli mycket kortare. Den begränsade kvantitativa och kvalitativa beskrivningen av genomförandet hindrar avsevärt hur litteraturen om hälsoinformationsteknik kan informera beslutsfattandet av ett brett spektrum av intressenter som är intresserade av detta område. När det gäller affärsfallet för hälsoinformationsteknik fann vi lite information som kunde ge intressenterna möjlighet att själva bedöma de ekonomiska effekterna av antagandet. Till exempel finns det inga grundläggande kostnadsuppgifter som behövs för att fastställa den totala ägandekostnaden för ett system eller avkastningen på investeringar. Utan dessa uppgifter kan kostnaderna för hälsoinformationstekniksystem endast beräknas genom komplexa prediktiva analyser och statistiska modelleringsmetoder, tekniker som i allmänhet inte är tillgängliga utanför forskningen. Ett av de främsta hindren för införandet av informationsteknik för hälso- och sjukvård är att incitamenten för dess användning har missriktats (107, 108). Att ange riktlinjer för att ta itu med detta hinder hindras av bristen på kostnadsuppgifter. I denna översyn föreslås flera viktiga framtida riktningar på området. För det första måste ytterligare studier utvärdera kommersiellt utvecklade system i samhällsmiljöer, och ytterligare finansiering för sådant arbete kan behövas. För det andra behövs mer information om organisationsförändringar, omdesign av arbetsflöden, mänskliga faktorer och projektledningsfrågor som handlar om att realisera fördelar med hälsoinformationsteknik. För det tredje måste en hög prioritet vara utvecklingen av enhetliga standarder för rapportering av forskning om genomförandet av hälsoinformationsteknik, liknande Consolidated Standards of Reporting Trials (CONSORT) uttalanden för randomiserade, kontrollerade prövningar och Quality of Reporting of Meta-analyses (QUORUM) uttalande för meta-analyser (109, 110). Slutligen krävs ytterligare arbete när det gäller driftskompatibilitet och konsumenthälsoteknik, t.ex. Fördelarna med hälsoinformationsteknik framför pappersarkiv är lätta att urskilja. Utan bättre information kan dock intressenter som är intresserade av att främja eller överväga antagandet inte avgöra vilka fördelar man kan förvänta sig av användningen av hälsoinformationsteknik, hur man bäst genomför systemet för att maximera det värde som härrör från deras investeringar eller hur man styr en politik som syftar till att förbättra kvaliteten och effektiviteten inom hälso- och sjukvården som helhet.
Ännu en studie gjord av Chaudhry et al. Ref-undersökningar statistik om IT-användning på sjukhus.
5,573,811
Systematic Review: Impact of Health Information Technology on Quality, Efficiency, and Costs of Medical Care
{'venue': 'Annals of Internal Medicine', 'journal': 'Annals of Internal Medicine', 'mag_field_of_study': ['Medicine']}
83,048
Användarrecensioner av mobilappar innehåller ofta klagomål eller förslag som är värdefulla för apputvecklare för att förbättra användarupplevelsen och tillfredsställelsen. Men, på grund av den stora volymen och bullriga naturen av dessa recensioner, manuellt analysera dem för användbara åsikter är i sig utmanande. För att ta itu med detta problem föreslår vi MARK, ett nyckelordsbaserat ramverk för semiautomatiserad granskningsanalys. MARK tillåter en analytiker som beskriver sina intressen i en eller några mobila appar genom en uppsättning nyckelord. Den finner sedan och listar de recensioner som är mest relevanta för dessa nyckelord för ytterligare analys. Det kan också dra trender över tiden av dessa nyckelord och upptäcka deras plötsliga förändringar, vilket kan tyda på förekomsten av allvarliga problem. För att hjälpa analytiker beskriva sina intressen mer effektivt, kan MARK automatiskt extrahera sökord från råa recensioner och ranka dem av sina föreningar med negativa recensioner. Dessutom, baserat på en vektorbaserad semantisk representation av nyckelord, kan MARK dela upp en stor uppsättning nyckelord i mer sammanhållna undergrupper, eller föreslå nyckelord som liknar de valda.
I motsats till den finkorniga extraktion av app-funktioner, metoden av REF extraherar alla potentiella sökord från användarrecensioner och ranka dem baserat på granskning betyg och förekomst frekvens.
579,871
Mining User Opinions in Mobile App Reviews: A Keyword-Based Approach (T)
{'venue': '2015 30th IEEE/ACM International Conference on Automated Software Engineering (ASE)', 'journal': '2015 30th IEEE/ACM International Conference on Automated Software Engineering (ASE)', 'mag_field_of_study': ['Computer Science']}
83,049
Studier av mänskliga eyetracking har visat att ögonfixeringar är fördomsfulla mot centrum av naturliga scenstimuli ("centrumfördomar"). Denna partiskhet förorenar utvärderingen av beräkningsmodeller för uppmärksamhet och okulomotoriskt beteende. Här spelade vi in ögonrörelser från 17 deltagare tittar 40 MTV-stil videoklipp (med abrupt scenförändringar var 2-4 s), för att kvantifiera de relativa bidragen av fem orsaker till centerfördomar: fotograf partisk, motorisk, visningsstrategi, omloppsbana reserv, och skärm centrum. Fotografisk partiskhet utvärderades av fem naiva människor och korrelerade med ögonrörelser. De ofta föränderliga scenerna i MTV-videor gjorde det möjligt för oss att bedöma hur motorisk partiskhet och visningsstrategi påverkade centerfördomar över tiden. I ytterligare ett experiment med 5 deltagare, visades videor på olika platser inom en stor skärm för att undersöka påverkan av omloppsbana reserv och skärm centrum. Våra resultat demonstrerar kvantitativt för första gången att center partisk är korrelerat starkt med fotograf partisk och påverkas av visningsstrategi vid scendebut, medan omloppsbana reserv, skärm centrum, och motorisk partisk bidrag minimalt. Vi diskuterar metoder för att redogöra för dessa influenser för att bättre bedöma beräkningsmodeller för visuell uppmärksamhet och blick med hjälp av naturliga scenstimuli.
Till exempel Tseng et al. REF visade ett bidrag av fotograf partisk, visningsstrategi, och i mindre utsträckning, motor, re-centering, och skärm center partiskes till centrum partisk.
13,871,871
Quantifying center bias of observers in free viewing of dynamic natural scenes
{'venue': 'Journal of vision', 'journal': 'Journal of vision', 'mag_field_of_study': ['Psychology', 'Medicine']}
83,050
Medan evolutionära algoritmer (EAs) länge har erbjudit en alternativ metod för optimering, under de senaste åren tillbakapropagation genom stokastisk lutning nedstigning (SGD) har kommit att dominera fälten för neural nätverk optimering och djup inlärning. En hypotes för frånvaron av EAs i djupt lärande är att moderna neurala nätverk har blivit så högdimensionella att evolutionen med sin inexakta lutning inte kan matcha de exakta gradientberäkningarna av backpropagation. Dessutom skulle utvärderingen av en enskild individ i evolution på de stora datamängder som nu är förhärskande i djupt lärande utgöra ett oöverkomligt hinder för effektiv optimering. Detta dokument utmanar dessa åsikter, vilket tyder på att EA kan fås att köra betydligt snabbare än man tidigare trott genom att utvärdera individer endast på ett litet antal utbildningsexempel per generation. Förvånansvärt nog är användningen av detta tillvägagångssätt med endast en enkel EA (kallas den begränsade utvärderingen EA eller LEEA) konkurrenskraftig med den toppmoderna SGD varianten RMSProp på flera riktmärken med neurala nätverk med över 1000 vikter. Det är motiverat med ytterligare undersökningar, men dessa inledande resultat tyder på att EA skulle kunna vara det första genomförbara utbildningsalternativet för djupinlärning utanför SGD och därmed öppna upp djupinlärning för alla verktyg för evolutionsberäkning.
I REF används en begränsad utvärderingsutvecklingsalgoritm (LEEA) för att optimera nätets vikter.
13,606,928
Simple Evolutionary Optimization Can Rival Stochastic Gradient Descent in Neural Networks
{'venue': "GECCO '16", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,051
Abstract-Problemet med att automatiskt matcha sammansatta skisser till ansiktsbilder behandlas i detta papper. Tidigare forskning om skissigenkänning fokuserade på matchande skisser ritade av professionella konstnärer som antingen tittade direkt på ämnena (tittade skisser) eller använde en muntlig beskrivning av motivets utseende som tillhandahålls av ett ögonvittne (forensiska skisser). Till skillnad från skisser som ritas hand av konstnärer, sammanställs sammansatta skisser med hjälp av ett av de flera ansiktskompositprogram som är tillgängliga för brottsbekämpande myndigheter. Vi föreslår en komponentbaserad representation (CBR) metod för att mäta likheten mellan en sammansatt skiss och muggfoto. Speciellt upptäcker vi automatiskt ansiktsmarkeringar i kompositskisser och ansiktsbilder med hjälp av en aktiv formmodell (ASM). Funktioner extraheras sedan för varje ansiktskomponent med hjälp av flerskaliga lokala binära mönster (MLBP), och per komponent likhet beräknas. Slutligen sammansmältes de likhetspoäng som erhållits från enskilda ansiktskomponenter, vilket ger en likhetspoäng mellan en sammansatt skiss och ett ansiktsfoto. Matching prestanda förbättras ytterligare genom att filtrera det stora galleriet av muggshot bilder med hjälp av könsinformation. Experimentella resultat på att matcha 123 sammansatta skisser mot två gallerier med 10,123 och 1 316 muggshots visar att den föreslagna metoden uppnår lovande prestanda (rank-100 accuracies på 77,2 % respektive 89,4 %) jämfört med ett ledande kommersiellt ansiktsigenkänningssystem (rank-100 accuracies på 22,8 % och 52,0 %) och tätt provtagna MLBP på holistiska ansikten (rank-100 accuracies på 27,6 % och 10,6 %). Vi tror att vårt prototypsystem kommer att vara av stort värde för brottsbekämpande myndigheter att gripa misstänkta i rätt tid.
Han och Al. I REF föreslogs en komponentbaserad ram för att matcha sammansatt skiss med foto.
13,547,735
Matching Composite Sketches to Face Photos: A Component-Based Approach
{'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science']}
83,052
Problemet med att upptäcka anomalier har studerats under lång tid. Kort sagt, avvikelser är onormala eller osannolika saker. I finansiella nätverk är tjuvar och olaglig verksamhet ofta avvikande till sin natur. Medlemmar i ett nätverk vill upptäcka avvikelser så snart som möjligt för att hindra dem från att skada nätverkets gemenskap och integritet. Många maskininlärning tekniker har föreslagits för att ta itu med detta problem; vissa resultat verkar vara ganska lovande men det finns ingen uppenbar överlägsen metod. I detta dokument, vi anser anomali upptäckt särskilt till Bitcoin transaktionsnätverk. Vårt mål är att upptäcka vilka användare och transaktioner som är mest misstänkta; i detta fall är avvikande beteende en proxy för misstänkt beteende. I detta syfte använder vi tre oövervakade inlärningsmetoder inklusive k-means klustring, Mahalanobis avstånd, och Obesudlade Support Vector Machine (SVM) på två grafer som genereras av Bitcoin transaktionsnätverk: en graf har användare som noder, och den andra har transaktioner som noder.
Thai T. Pham och S. Lee REF föreslår en metod för att upptäcka avvikelser på ett Bitcoin transaktionsnätverk genom att upptäcka vilka användare och transaktioner som är mest misstänkta.
16,069,399
Anomaly Detection in Bitcoin Network Using Unsupervised Learning Methods
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,053
Sammanfattning baserad på textextrahering är till sin natur begränsad, men abstraktionsmetoder i generationsstil har visat sig vara utmanande att bygga. I detta arbete föreslår vi en helt datadriven strategi för sammanfattning av abstrakta meningar. Vår metod använder en lokal uppmärksamhetsbaserad modell som genererar varje ord i sammanfattningen beroende på inmatningsmeningen. Även om modellen är strukturellt enkel, kan den enkelt tränas end-to-end och skalas till en stor mängd träningsdata. Modellen visar betydande resultatvinster på den gemensamma uppgiften DUC-2004 jämfört med flera starka baslinjer.
Abstraktivt: REF tillämpar först neurala nätverk för textsammanfattning genom att använda en lokal uppmärksamhet-baserad modell för att generera ord betingade på inmatningsmeningen.
1,918,428
A Neural Attention Model for Abstractive Sentence Summarization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,054
Nätverken har under senare år framträtt som ett ovärderligt verktyg för att beskriva och kvantifiera komplexa system inom många vetenskapsområden [1, 2, 3]. Nya studier tyder på att nätverk ofta uppvisar hierarkisk organisation, där hörn delar upp sig i grupper som ytterligare delar upp sig i grupper och så vidare över flera skalor. I många fall anses dessa grupper motsvara kända funktionella enheter, såsom ekologiska nischer i matnät, moduler i biokemiska nätverk (proteininteraktionsnätverk, metaboliska nätverk eller genetiska regleringsnät), eller samhällen i sociala nätverk [4, 5, 6, 7]. Här presenterar vi en allmän teknik för att härleda hierarkisk struktur från nätverksdata och visa att förekomsten av hierarki samtidigt kan förklara och kvantitativt reproducera många vanliga observerade topologiska egenskaper hos nätverk, såsom högerstyrda gradfördelningar, höga klusterkoefficienter och korta väglängder. Vi visar vidare att kunskap om hierarkisk struktur kan användas för att förutsäga saknade anslutningar i delvis kända nätverk med hög noggrannhet, och för mer allmänna nätverksstrukturer än konkurrerande tekniker [8]. Sammantaget tyder våra resultat på att hierarkin är en central organisationsprincip för komplexa nätverk, som kan erbjuda insikt i många nätverksfenomen. En stor del av det senaste arbetet har ägnats åt studier av klusterbildning och samhällsstruktur i nätverk [5, 6, 9, 10, 11]. Hierarkisk struktur går dock utöver enkel klusterbildning genom att uttryckligen inkludera organisation på alla skalor i ett nätverk samtidigt. Konventionellt representeras hierarkisk struktur av ett träd eller dendrogram i vilket nära besläktade par hörn har lägst vanliga förfäder som är lägre i trädet än de av mer avlägset besläktade par-se bild. 1................................................................ Vi förväntar oss att sannolikheten för ett samband mellan två hörn beror på deras grad av släktskap. Struktur av denna typ kan modelleras matematiskt med en probabilistisk metod där vi ger varje intern nod r av dendrogram med en sannolikhet p r och sedan ansluta varje par hörn för vilka r är den lägsta gemensamma förfadern oberoende med sannolikhet p r (Fig. 1).................................................................. Denna modell, som vi kallar en hierarkisk slumpmässig graf, liknar i andemening (även om den skiljer sig från verkligheten) de trädbaserade modeller som används i vissa studier av nätverkssökning och navigering [12, 13]. Liksom de flesta arbeten på samhällsstruktur, det * Denna uppsats publicerades som Natur 453, 98 -101 (2008); doi:10.1038/naturen06830. antar att samhällen på varje organisationsnivå är osammanhängande. Överlappande samhällen har ibland studerats (se t.ex. [14] ) och kan representeras med hjälp av en mer genomtänkt probabilistisk modell, men som vi diskuterar nedan fångar den nuvarande modellen redan många av de strukturella särdragen i intresse. Med tanke på ett dendrogram och en uppsättning sannolikheter p r, ger den hierarkiska slumpmässiga grafmodellen oss möjlighet att skapa artificiella nätverk med en specificerad hierarkisk struktur, ett förfarande som kan vara användbart i vissa situationer. Vårt mål här är dock ett annat. Vi skulle vilja upptäcka och analysera den hierarkiska strukturen, om någon, av nätverk i den verkliga världen. Vi åstadkommer detta genom att montera den hierarkiska modellen till observerade nätverksdata med hjälp av verktygen för statistisk inferens, kombinera en maximal sannolikhet att närma sig möjliga dendrograms. Denna teknik gör det möjligt för oss att prova hierarkiska slumpmässiga grafer med sannolikhet proportionell mot sannolikheten att de genererar det observerade nätverket. För att få de resultat som beskrivs nedan kombinerar vi information från ett stort antal sådana prover, som vart och ett är en rimligen trolig modell av data. Framgången med detta tillvägagångssätt bygger på att vår hierarkiska modell är flexibel, vilket gör att vi kan anpassa oss till ett brett spektrum av nätverksstrukturer. Den traditionella bilden av samhällen eller moduler i ett nätverk, till exempel, motsvarar kopplingar som är täta inom grupper av hörn och glest mellan dem-ett beteende som kallas "assortativitet" i litteraturen [17]. Den hierarkiska slumpmässiga grafen kan fånga beteende av detta slag med sannolikheter p r som minskar när vi flyttar högre upp i trädet. Omvänt, sannolikheter som ökar när vi flyttar upp trädet motsvarar "disassortativa" strukturer där hörn är mindre benägna att anslutas på små skalor än på stora. Genom att låta p r-värdena variera godtyckligt i hela dendrogrammet, kan den hierarkiska slumpmässiga grafen fånga både diverse och disassortativa strukturer, liksom godtyckliga blandningar av de två, på alla skalor och i alla delar av nätverket. För att visa vår metod har vi använt den för att konstruera hierarkiska nedbrytningar av tre exempelnätverk som hämtats från olika fält: det metaboliska nätverket av spirochete Treponema pallidum [18], ett nätverk av associationer mellan terrorister [19], och ett livsmedelsnät av gräsmarksarter [20]. För att testa om dessa nedbrytningar exakt fångar upp nätens viktiga strukturella egenskaper använder vi de provtagna dendrogram för att generera nya nätverk, som skiljer sig i detalj från originalen, men per definition har liknande hierarkisk struktur (se Kompletterande information för mer information). Vi finner att dessa "replikerade" nätverk matchar de statistiska egenskaperna hos originalen nära, inklusive deras gradfördelningar, klustereringskoefficienter, och fördelningar av kortaste väglängder mellan par av hörn, trots det faktum att ingen av dessa egenskaper uttryckligen representeras i den hierarkiska slumpmässiga grafen (Tabell I, och Bild. S3 i tilläggsinformationen). Det verkar alltså som om ett näts hierarkiska struktur också kan förklara en mängd andra nätverksfunktioner. De dendrogram som produceras genom vår metod är också av intresse för sig själva, som en grafisk representation och sammanfattning av det observerade nätverkets hierarkiska struktur. Som dis-. Observera att i flera fall grupperas en uppsättning parasitoider i en disassortativ gemenskap av algoritmen, inte för att de lever på varandra, utan för att de lever på samma växtätare. Enligt ovan kan vår metod generera inte bara ett enda dendrogram utan en uppsättning dendrogram, som var och en passar bra till datan. Från denna uppsättning kan vi, med hjälp av tekniker från phylogeny rekonstruktion [21], skapa en enda konsensus dendrogram, som fångar de topologiska egenskaper som visas konsekvent över alla eller en stor del av dendrograms och typiskt representerar en bättre sammanfattning av nätverkets struktur än någon enskild dendrogram. Figur 2a visar ett sådant samförstånd dendrogram för nätverket av gräsmarksarter, som tydligt avslöjar samhällen och subkommuniteter av växter, växtätare, parasitoider och hyperparasitoider. En annan tillämpning av den hierarkiska nedbrytningen är förutsägelsen om saknade interaktioner i nätverk. I många miljöer kräver upptäckten av interaktioner i ett nätverk betydande experimentella insatser i laboratoriet eller fältet. Som ett resultat av detta är våra nuvarande bilder av många nätverk sub-3 starkt ofullständiga [22, 23, 24, 25, 26, 27, 28]. Ett attraktivt alternativ till att kontrollera uttömmande för en anslutning mellan varje par hörn i ett nätverk är att försöka förutsäga, i förväg och baserat på de anslutningar som redan observerats, vilka hörn är mest sannolikt att vara anslutna, så att knappa experimentella resurser kan fokuseras på testning för dessa interaktioner. Om våra förutsägelser är goda kan vi på detta sätt avsevärt minska de ansträngningar som krävs för att etablera nätverkets topologi. Den hierarkiska nedbrytningen kan användas som grund för en effektiv metod för att förutsäga saknade interaktioner enligt följande. Med tanke på ett observerat men ofullständigt nätverk, genererar vi som beskrivs ovan en uppsättning hierarkiska slumpmässiga grafsdendrogram och tillhörande sannolikheter p r -som passar det nätverket. Sedan letar vi efter par av hörn som har en hög genomsnittlig sannolikhet för anslutning inom dessa hierarkiska slumpmässiga grafer men som inte är anslutna i det observerade nätverket. Dessa par vi anser de mest sannolika kandidater för saknade anslutningar. (Tekniska uppgifter om förfarandet finns i den kompletterande informationen.) Vi demonstrerar metoden med hjälp av våra tre exempelnätverk igen. För varje nätverk tar vi bort en delmängd av anslutningar som väljs jämnt på måfå och försöker sedan förutsäga, baserat på de återstående anslutningar, vilka som har tagits bort. Ett standardmått för att kvantifiera noggrannheten av förutsägelsealgoritmer, som vanligen används i medicinska och maskininlärning samhällen, är AUC-statistiken, som är likvärdig med området under mottagaren-operativa egenskapen (ROC) kurva [29]. I det aktuella sammanhanget kan AUC-statistiken tolkas som sannolikheten att en slumpmässigt vald saknad anslutning (ett sant positivt) ges en högre poäng genom vår metod än ett slumpmässigt valt par osammanhängande hörn (ett sant negativt). Den grad i vilken AUC överstiger 1/2 indikerar alltså hur mycket bättre våra förutsägelser är än slumpen. Figur 3 visar AUC-statistiken för de tre nätverken som en funktion av fraktionen av de anslutningar som är kända för algoritmen. För alla tre nätverk gör vår algoritm mycket bättre än slumpen, vilket tyder på att hierarkin är en stark allmän prediktor för saknad struktur. Det är också lärorikt att jämföra prestanda av vår metod med andra metoder för länk förutsägelse [8]. Tidigare föreslagna metoder inkluderar antagandet att hörn sannolikt kommer att anslutas om de har många gemensamma grannar, om det finns korta vägar mellan dem, eller om produkten av deras grader är stor. Dessa strategier fungerar bra för starkt olika nätverk som samarbete och citeringsnätverk [8] och för de metabola och terroristiska nätverk som studeras här (Fig. 3a b)........................................................................................................... För det metabola nätverket fungerar den kortaste heuristiska vägen bättre än vår algoritm. Dessa enkla metoder kan dock vara vilseledande för nätverk som uppvisar mer allmänna typer av struktur. I födovävar, till exempel, delar par av rovdjur ofta bytesarter, men sällan på varandra. I sådana situationer skulle en vanlig granne eller en kortaste vägbaserad metod förutsäga samband mellan rovdjur där det inte finns några. Den hierarkiska modellen kan däremot uttrycka både olika och olika strukturer och som bild. 3c visar, ger betydligt bättre prognoser för gräsmarksnätet. (I- gärning, i Bild. 2b Det finns flera grupper av parasitoider som vår algoritm har grupperat tillsammans i en disassortativ gemenskap, där de lever på samma växtätare men inte på varandra.) Den hierarkiska metoden gör därför exakta förutsägelser för ett bredare spektrum av nätverksstrukturer än de tidigare metoderna. I applikationerna ovan har vi antagit för enkelhetens skull 4 att det inte finns några falska positiva i våra nätverksdata, d.v.s. att varje observerad kant motsvarar en verklig interaktion. I nätverk där falska positiva kan vara närvarande, kan de också förutsägas med samma tillvägagångssätt: vi skulle helt enkelt leta efter par av hörn som har en låg genomsnittlig sannolikhet för anslutning inom den hierarkiska slumpmässiga grafen men som är anslutna i det observerade nätverket. Den metod som beskrivs här skulle också kunna utvidgas till att omfatta domänspecifik information, såsom artmorfologiska eller beteendemässiga egenskaper för livsmedelsvävar [28] eller fylogenetiska eller bindningsdomändata för biokemiska nätverk [23], genom att justera sannolikheterna för kanter i enlighet därmed. Som resultaten ovan visar, kan vi dock få bra förutsägelser även i avsaknad av sådan information, vilket tyder på att topologi ensam kan ge rika insikter. Avslutningsvis konstaterar vi att vår strategi skiljer sig mycket från tidigare arbete om hierarkisk struktur i nätverk [1, 4, 5, 6, 7, 9, 11, 30] genom att den uttryckligen erkänner att de flesta verkliga nätverk har många rimliga hierarkiska representationer av ungefär lika stor sannolikhet. Tidigare arbete har däremot vanligtvis sökt en enda hierarkisk representation för ett visst nätverk. Genom att ta en ensemble av dendrogram undviker vårt tillvägagångssätt att överanstränga data och gör det möjligt för oss att förklara många gemensamma topologiska funktioner, generera omprovade nätverk med liknande struktur som originalet, härleda en tydlig och koncis sammanfattning av ett nätverks struktur via dess konsensus dendrogram, och exakt förutsäga saknade anslutningar i en mängd olika situationer.
Clauset m.fl. REF studerade upptäckt hierarki i oriktade grafer, där det ges ett dendrogram, sannolikheten för en kant mellan två hörn baseras på Erdős-Rényi modell, med en sannolikhet beroende på den lägsta gemensamma förfadern i dendrogram.
278,058
Hierarchical structure and the prediction of missing links in networks
{'venue': 'Nature 453, 98 - 101 (2008)', 'journal': None, 'mag_field_of_study': ['Biology', 'Mathematics', 'Physics', 'Medicine']}
83,055
Abstract-Web tjänster sammansättning har varit ett aktivt forskningsområde under de senaste åren. Tekniken är dock ännu inte mogen och flera forskningsfrågor måste tas upp. I detta dokument beskriver vi utformningen av CCAP, ett system som tillhandahåller verktyg för adaptiv tjänstesammansättning och tillhandahållande. Vi introducerar en kompositionsmodell där servicekontext och undantag är konfigurerbara för att tillgodose olika användares behov. Detta möjliggör återanvändning av en tjänst i olika sammanhang och uppnår en nivå av anpassningsförmåga och kontextualisering utan omkodning och omkompilering av de övergripande sammansatta tjänsterna. Den adaptiva sammansatta tjänstens utförande semantik tillhandahålls av en händelsestyrd modell. Denna utförandemodell är baserad på Linda Tuple Spaces och stöder realtids- och asynkron kommunikation mellan tjänster. Tre kärntjänster, samordningstjänst, kontexttjänst och händelsetjänst, implementeras för att automatiskt schemalägga och utföra komponenttjänsterna och anpassa sig till användarkonfigurerade undantag och sammanhang vid körning. Det föreslagna systemet ger ett effektivt och flexibelt stöd för att specificera, distribuera och få tillgång till adaptiva sammansatta tjänster. Vi visar fördelarna med vårt system genom att genomföra användbarhets- och prestandastudier.
CCAP REF är ett system som ger stöd för konfigurerbara och anpassningsbara tjänstesammansättningar som är medvetna om användarkontext och olika behov.
15,576,135
Configurable Composition and Adaptive Provisioning of Web Services
{'venue': 'IEEE Transactions on Services Computing', 'journal': 'IEEE Transactions on Services Computing', 'mag_field_of_study': ['Computer Science']}
83,056
Distantly övervakad Relation Extraction (RE) metoder utbilda en utsugare genom att automatiskt anpassa relation instanser i en kunskapsbas (KB) med ostrukturerad text. Utöver sambandsärenden innehåller KB ofta annan relevant sidoinformation, t.ex. alias av relationer (t.ex. grundade och samgrundade är alias för relationsgrundarenOfCompany). RE-modeller ignorerar vanligtvis sådan lättillgänglig sidoinformation. I detta dokument föreslår vi RESIDE, en fjärrövervakad neural relation extraktionsmetod som använder ytterligare sidoinformation från KBs för förbättrad relation extraktion. Den använder information om typ och relation av företag för att införa mjuka begränsningar samtidigt som den förutsäger relationer. RE-SIDE använder Graph Convolution Networks (GCN) för att koda syntaktisk information från text och förbättrar prestanda även när begränsad sidoinformation finns tillgänglig. Genom omfattande experiment på referensdataset visar vi på RESIDE:s effektivitet. Vi har gjort RESIDEs källkod tillgänglig för att uppmuntra reproducerbar forskning.
REF föreslog RE-SIDE, en fjärrövervakad metod för neural relationsextraktion som använder ytterligare sidoinformation från kunskapsbaser för att förbättra relationsextraktionen.
53,064,621
RESIDE: Improving Distantly-Supervised Neural Relation Extraction using Side Information
{'venue': 'Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,057
Abstrakt. Det finns ett stort samtycke till att framgångsrik utbildning av djupa nätverk kräver många tusen kommenterade utbildningsprover. I detta dokument presenterar vi ett nätverk och en utbildningsstrategi som bygger på en stark användning av dataförstärkning för att använda tillgängliga kommenterade prover mer effektivt. Arkitekturen består av en kontrakterad väg för att fånga sammanhang och en symmetrisk expanderande väg som möjliggör exakt lokalisering. Vi visar att ett sådant nätverk kan tränas end-to-end från mycket få bilder och överträffar den tidigare bästa metoden (ett glidande fönster konvolutionsnätverk) på ISBI utmaningen för segmentering av neuronala strukturer i elektronmikroskopiska stackar. Med samma nätverk utbildade på överförda ljusmikroskopi bilder (faskontrast och DIC) vann vi ISBI cellspårning utmaning 2015 i dessa kategorier med stor marginal. Dessutom är nätverket snabbt. Segmentering av en 512x512 bild tar mindre än en sekund på en nyligen GPU. Det fullständiga genomförandet (baserat på Caffe) och de utbildade nätverken finns på
U-Net REF är en end-to-end arkitektur som används för att segmentera olika semantik av bilder, på grund av att hoppa över anslutningar, denna metod vann ISBI cellspårning utmaning 2015 genom att använda endast 30 utbildningsbilder, överträffa den näst bästa metoden med stor marginal.
3,719,281
U-Net: Convolutional Networks for Biomedical Image Segmentation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,058
Felaktig trådsynkronisering leder ofta till konvergens buggar som manifesterar icke-deterministiskt och är svåra att upptäcka och rätta. Tidigare arbete på att upptäcka konvergens buggar har tagit itu med det allmänna problemet på ett ad-hoc-sätt, med fokus främst på dataraser och atombrott. Att använda grafer för att representera ett multitrådat program exekvering är mycket naturligt, noder representerar statiska instruktioner och kanter representerar kommunikation via delat minne. I det här dokumentet gör vi den grundläggande iakttagelsen att sådana grundläggande sammanhangsoberoende grafer inte kodar tillräckligt med information för att möjliggöra korrekt feldetektering. Vi föreslår sammanhangsmedvetna kommunikationsgrafer, en ny typ av kommunikationsdiagram som kodar global beställningsinformation genom att inbädda kommunikationssammanhang. Vi bygger sedan Bugaboo, ett enkelt och generiskt ramverk som exakt upptäcker komplexa konvergensfel. Vårt ramverk samlar kommunikationsgrafer från flera utföranden och använder invariantbaserade tekniker för att upptäcka avvikelser i graferna. Vi byggde två versioner av Bugaboo: BB-SW, som är helt implementerad i programvara men lider av betydande nedgångar; och BB-HW, som bygger på anpassade arkitekturstöd men har försumbar prestandanedbrytning. BB-HW kräver blygsamma tillägg till en produkt multicore processor och kan användas i installationsinställningar. Vi utvärderar båda versionerna med hjälp av applikationer som MySQL, Apache, PARSEC och flera andra. Våra resultat visar att Bugaboo identifierar ett brett utbud av konvergensfel, inklusive utmanande flervariabla fel, med få (ofta noll) onödiga kodinspektioner.
Bugaboo REF upptäcker en mängd olika konvergensfel genom att identifiera ovanliga kommunikationsmönster.
5,809,675
Finding concurrency bugs with context-aware communication graphs
{'venue': 'MICRO 42', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,059
Den ökande tillgängligheten av GPS-aktiverade enheter förändrar hur människor interagerar med webben, och ger oss en stor mängd GPS-banor som representerar människors läge historia. I detta dokument, baserat på flera användares GPS-banor, siktar vi på att bryta intressanta platser och klassiska resesekvenser i en given geospatial region. Här, intressanta platser innebär de kulturellt viktiga platser, såsom Himmelska fridens torg i Peking, och besökta offentliga områden, som köpcentra och restauranger, etc. Sådan information kan hjälpa användare att förstå omgivande platser, och skulle möjliggöra reserekommendationer. I detta arbete modellerar vi först flera individers lägeshistorik med en trädbaserad hierarkisk graf (TBHG). För det andra, baserat på TBHG, föreslår vi en HITS (Hypertext Inducted Topic Search)-baserad slutledningsmodell, som betraktar en individs tillgång på en plats som en riktad länk från användaren till den platsen. Denna modell drar slutsatsen att det finns ett intresse av en plats genom att ta hänsyn till följande tre faktorer. 1) Intresset för en plats beror inte bara på antalet användare som besöker denna plats utan även på dessa användares reseupplevelser. 2) Användarnas reseupplevelser och lokaliseringsintressen har en ömsesidig förstärkningsrelation. 3) Intresset för en plats och en användares reseupplevelse är relativa värden och är regionrelaterade. För det tredje minerar vi de klassiska resesekvenserna bland platser med beaktande av intressena hos dessa platser och användarnas reseupplevelser. Vi utvärderade vårt system med hjälp av en stor GPS-dataset som samlats in av 107 användare under en period av ett år i den verkliga världen. Som ett resultat, vår HITS-baserade inferens modell överträffade baslinje tillvägagångssätt som rank-för-räkning och rank-för-frekvens. Samtidigt, när vi tog hänsyn till användarnas reseupplevelser och platsintressen, uppnådde vi en bättre prestanda än utgångsvärden, såsom rankför-count och rank-by-interest, etc.
Zheng m.fl. REF minerade intressanta platser och klassiska resesekvenser inom en given geospatial region med hjälp av GPS-banor som genereras av flera användare och gav reserekommendationen för mobila turister.
6,491,073
Mining interesting locations and travel sequences from GPS trajectories
{'venue': "WWW '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,060
Abstrakt. För att göra det möjligt att sprida lätta metoder för tjänstesammansättning bland slutanvändarna krävs en lämplig förståelse och fastställande av de korrekta användarkrav som leder till utveckling av lättanvända och effektiva mjukvaruplattformar. I detta syfte genomförs en användarcentrerad studie som omfattar 15 deltagare för att ta fram användarnas mentala modeller om programvarutjänster och tjänstesammansättning, deras arbetsmetoder och identifiera användarnas förväntningar och problem med tjänstesammansättningen. Flera exempel och prototyper används för att styra denna studie, bland annat ett enkelt kompositionsverktyg som är utformat för att stödja icke-programmerare för att skapa interaktiva servicebaserade applikationer på ett lätt och visuellt sätt. Även om användaracceptansen var hög när det gäller "utveckling av tjänstebaserade tillämpningar för slutanvändare", finns det belägg för en begreppsmässig fråga om att förstå begreppet tjänstesammansättning (dvs. slutanvändare inte tänker på och inte heller förstår de kopplingar mellan tjänster). I detta dokument diskuteras olika begreppsmässiga och användbarhetsproblem i tjänstesammansättningen och föreslås rekommendationer för att lösa dem.
En studie om användarnas förväntningar och användbarhetsproblem i en kompositionsmiljö för ServFace-verktyget REF visar att det finns belägg för en grundläggande fråga om begreppsmässig förståelse av tjänstesammansättningen (dvs. slutanvändare tänker inte på att ansluta tjänster).
15,308,409
Conceptual and usability issues in the composable web of software services
{'venue': 'ICWE Workshops', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,061
Detta dokument beskriver InfoGAN, en informations-teoretisk förlängning till Generative Adversarial Network som kan lära sig disentrangerade representationer på ett helt oövervakat sätt. InfoGAN är ett generativt kontradiktoriskt nätverk som också maximerar den ömsesidiga informationen mellan en liten delmängd av de latenta variablerna och observationen. Vi får en lägre gräns för det ömsesidiga informationsmålet som kan optimeras effektivt. Specifikt, InfoGAN framgångsrikt löses skriva stilar från siffror former på MNIST dataset, posera från belysning av 3D renderade bilder, och bakgrundssiffror från den centrala siffran på SVHN datasetet. Den upptäcker också visuella begrepp som inkluderar frisyrer, närvaro / frånvaro av glasögon, och känslor på CelebA ansikte dataset. Experiment visar att InfoGAN lär sig tolkningsbara representationer som är konkurrenskraftiga med representationer som lärts av befintliga övervakade metoder.
REF maximerade den ömsesidiga informationen mellan de genererade uppgifterna och de latenta koderna genom att utnyttja en nätverksanpassad variationsbaserad förslagsdistribution.
5,002,792
InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,062
Vi härleder två varianter av en halvövervakad modell för finkornig känsloanalys. Båda modellerna utnyttjar ett överflöd av naturlig övervakning i form av granskningsbetyg, liksom en liten mängd manuellt utformade meningsetiketter, för att lära sig meningsklassificeringar. Den föreslagna modellen är en sammanslagning av en helt övervakad strukturerad villkorad modell och dess delvis övervakade motpart. Detta möjliggör mycket effektiv uppskattning och slutsatser algoritmer med rika funktionsdefinitioner. Vi beskriver de två varianterna samt deras komponentmodeller och verifierar experimentellt att båda varianterna ger betydligt bättre resultat för sensationsanalys jämfört med alla utgångar.
I REF kombineras fullständigt och delvis övervakade strukturerade villkorade modeller för en gemensam klassificering av polariteten i hela granskningar och granskningsmeningar.
8,706,134
Semi-supervised latent variable models for sentence-level sentiment analysis
{'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,063
Abstract-Under de senaste åren har vi sett imponerande demonstrationer av aggressiva flygningar och akrobatik med hjälp av kvadrotorer. Men robotarna är i själva verket blinda. De ser inte av sig själva, utan genom ögonen på ett yttre rörelsesystem. Flygmanövrar med ombordsensorer är fortfarande långsamma jämfört med de som kan uppnås med rörelsesystem. Vid nuvarande tillstånd begränsas en robots smidighet av latensen i dess uppfattningsrörledning. För att få mer smidiga robotar måste vi använda snabbare sensorer. I det här dokumentet presenterar vi det första systemet för 6-DOF-lokalisering under höghastighetsmanövrer med hjälp av en DVS (Dynamic Vision Sensor). Till skillnad från en vanlig CMOS-kamera skickar en DVS inte i onödan fullständiga bildramar med en fast bildhastighet. Omvänt, i likhet med det mänskliga ögat, överför det bara pixel-nivå ljusstyrka förändringar vid den tidpunkt de inträffar med mikrosekundsupplösning, vilket ger möjlighet att skapa en uppfattning pipeline vars latens är försumbar jämfört med dynamiken hos roboten. Vi utnyttjar dessa egenskaper för att uppskatta posen av en fyrhjuling med avseende på ett känt mönster under höghastighetsmanövrer, såsom flips, med rotationshastigheter upp till 1.200 • /s. Dessutom ger vi en mångsidig metod för att fånga mark-sanning data med hjälp av en DVS.
Robot lokalisering i 6-DOF med avseende på en karta över B & W linjer visades med hjälp av en DVS, utan ytterligare avkänning, under höghastighetståg manövrar av en fyrhjuling REF, där rotationshastigheter på upp till 1200
11,454,240
Event-based, 6-DOF pose tracking for high-speed maneuvers
{'venue': '2014 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2014 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']}
83,064
Informellt är en obfuscator O en (effektiv, probabilistisk) "kompilator" som tar som ingång ett program (eller krets) P och producerar ett nytt program O(P ) som har samma funktionalitet som P ännu är "oförståelig" i någon mening. Obfuscators, om de finns, skulle ha en mängd olika kryptografiska och komplexa-teoretiska tillämpningar, allt från programvaruskydd till homomorfisk kryptering till komplexa-teoretiska analoger av Ris teorem. De flesta av dessa tillämpningar är baserade på en tolkning av "oförståelig" villkor i obfuscation som innebär att O(P ) är en "virtuell svart låda", i den meningen att allt man effektivt kan beräkna givet O(P ), man kan också effektivt beräkna given orakle tillgång till P. I detta arbete, inleder vi en teoretisk undersökning av obfuscation. Vårt huvudsakliga resultat är att även under mycket svaga formaliseringar av ovanstående intuition är obfuscation omöjlig. Vi bevisar detta genom att bygga en familj av effektiva program P som är oobfuscatable i den meningen att (a) med tanke på alla effektiva program P som beräknar samma funktion som ett program P på P, kan "källkod" P effektivt rekonstrueras, men (b) ges orakle tillgång till ett (slumpvis utvalda) program P P P, ingen effektiv algoritm kan rekonstruera P (eller ens skilja en viss bit i koden från slumpmässig) utom med försumbar sannolikhet. Vi utökar vår omöjlighet resulterar i ett antal sätt, inklusive även obfuscators som (a) inte nödvändigtvis kan beräknas i polynom tid, (b) bara ungefär bevara funktionaliteten, och (c) behöver bara arbeta för mycket begränsade modeller av beräkning (TC 0 ). Vi utesluter också flera potentiella tillämpningar av obfuscators, genom att bygga "oobfuscatable" signatursystem, krypteringssystem och pseudorandom funktionsfamiljer. I detta arbete inleder vi en teoretisk undersökning av obfuscation. Vi undersöker olika formaliseringar av begreppet, i ett försök att förstå vad vi kan och inte kan hoppas på att uppnå. Vårt huvudresultat är negativt, vilket visar att obfuscation (som det vanligtvis förstås) är omöjligt. Innan vi beskriver detta resultat och andra mer i detalj beskriver vi några av de potentiella tillämpningarna av obfuscators, både för motivation och för att förtydliga begreppet. Programvaruskydd.. De mest direkta tillämpningarna av obfuscators är för olika former av programvaruskydd. Genom definition, obfuscing ett program skyddar det mot omvänd ingenjörskonst. Till exempel, om en part, Alice, upptäcker en mer effektiv algoritm för factoring heltal, kan hon vilja sälja en annan part, Bob, ett program för till synes svagare uppgifter (såsom bryta RSA cryptosystem) som använder factoring algoritm som en subrutin utan att faktiskt ge Bob en factoring algoritm. Alice kan hoppas att uppnå detta genom att fördunkla programmet hon ger till Bob. Intuitivt, obfuscators skulle också vara användbart i vattenmärkning programvara (jfr, [CT; NSS]). En programvaruleverantör kan ändra ett programs beteende på ett sätt som unikt identifierar den person till vilken det säljs, och sedan fördunkla programmet för att garantera att detta "vattenmärke" är svårt att ta bort. Tar bort slumpmässiga orakler. Random Oracle Model [BR] är en idealiserad kryptografisk miljö där alla parter har tillgång till en verkligt slumpmässig funktion. Det är (heuritiskt) hoppats att protokoll utformade i denna modell kommer att förbli säker när den genomförs med hjälp av en effektiv, offentligt beräknande kryptografisk hash funktion i stället för den slumpmässiga funktionen. Även om det är känt att detta inte är sant i allmänhet [CGH], är det okänt om det finns effektivt beräkningsbara funktioner med tillräckligt starka egenskaper för att säkert användas i stället för den slumpmässiga funktionen i olika specifika protokoll 2. Man kan hoppas på att få sådana funktioner genom att fördunkla en familj av pseudorandom funktioner [GGM], vars input-output beteende är per definition oskiljaktiga från en verkligt slumpmässig funktion. Omvandla Privat-Key kryptering till Public-Key kryptering.. Obfuscation kan också användas för att skapa nya krypteringssystem med öppen nyckel genom att obfuscera ett krypteringssystem med privat nyckel. Med tanke på en hemlig nyckel K i en privat nyckel krypteringsschema, kan man publicera en obfuscation av krypteringsalgoritmen Enc K. Detta tillåter alla att kryptera, men bara en som har den hemliga nyckeln K bör kunna dekryptera. Intressant nog, i den ursprungliga tidningen av Diffie och Hellman [DH] var det ovan angivna skälet till att tro att public-key kryptosystem kan existera även om det inte fanns några kandidater kända ännu. Det vill säga, de föreslog att det skulle vara möjligt att fördunkla ett krypteringssystem med privat nyckel. 3 2 Vi noterar att resultaten av [CGH] också kan ses som att utesluta en mycket stark "virtuell svart låda" definition av obfuscators. Detta beror på att deras resultat innebär att ingen obfuscator tillämpas på någon pseudorandom funktion familj skulle kunna fungera för alla protokoll, medan en mycket stark virtuell svart låda definition skulle garantera detta. Vi konstaterar emellertid att våra viktigaste resultat utesluter en till synes mycket svagare definition av fördunkladhet. Dessutom noterar vi att utesluta starka virtuella svarta box definitioner är nästan omedelbar: Till exempel, en sak som kan beräknas effektivt från O(P ) är programmet O(P ) själv. Men för alla program P som motsvarar en funktion som är svår att lära sig från frågor, skulle det vara omöjligt att producera något program som motsvarar P i funktionalitet ges endast oracle tillgång till P. 3 Från [DH]: "En mer praktisk metod för att hitta ett par lätt beräknade inversa algoritmer E och D; sådan att D är svårt att sluta sig till från E, använder sig av svårigheten att analysera program i låg nivå språk. Alla som har försökt avgöra vilken operation som utförs av någon annans maskinspråksprogram vet att E själv (dvs. vad E gör) kan vara svårt att dra slutsatsen från en algoritm för E. Om programmet skulle göras avsiktligt förvirrande genom tillägg av onödiga variabler och uttalanden, då impossibilitet av Applikationer.. Att ge ytterligare bevis för att vårt omöjlighetsresultat inte är en artefakt av definitionsval, utan snarare är inneboende i den "virtuella svarta rutan" som bestämmer en omvänd algoritm kan göras mycket svårt. Naturligtvis måste E vara tillräckligt komplicerat för att förhindra dess identifiering från input-output par. Vad som i huvudsak krävs är en enkelriktad kompilator: en som tar ett lättförståeligt program skrivet på ett språk på hög nivå och översätter det till ett obegripligt program på något maskinspråk. Kompilatorn är enkelriktad eftersom det måste vara möjligt att göra sammanställningen, men omöjlig att vända processen. Eftersom effektivitet i storlek på programmet och körtid inte är avgörande i detta program, sådana kompilatorer kan vara möjligt om strukturen i maskinen språket kan optimeras för att hjälpa till i förvirringen." A:5 idé, vi visar också att flera av tillämpningarna av obfuscators är omöjliga. Vi gör detta genom att bygga oobfuscatable signatursystem, krypteringssystem och pseudorandom funktioner. Dessa är objekt som uppfyller standarddefinitionerna av säkerhet, men för vilka man effektivt kan beräkna den hemliga nyckeln K från alla program som signerar (eller krypterar eller utvärderar pseudorandom-funktionen, resp.) I förhållande till K. Därför är det mycket osäkert att dela ut "obfuskerade former" av dessa nyckeltalgoritmer. I synnerhet kompletterar vi Canetti et. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning.Kritik mot slumpmässig orakelmetodologi [CGH]. De visar att det finns (kontrigerade) protokoll som är säkra i den idealiserade Random Oracle Model (av [BR]), men är osäkra när den slumpmässiga oraklet ersätts med någon (effektivt beräknande) funktion. Våra resultat innebär att även för naturliga protokoll som är säkra i slumpmässiga orakel modellen, (t.ex. Fiat-Shamir typ system [FS]), finns det (kontrived) pseudorandom funktioner, så att dessa protokoll är osäkra när slumpmässiga orakel ersätts med något program som beräknar (kontrived) pseudorandom funktion. Vi nämner att efter vårt arbete, Barak [Bar1] konstruerade utan tvekan naturliga protokoll som är säkra i den slumpmässiga orakelmodellen (t.ex. De som erhålls genom tillämpning av Fiat-Shamir heuristic [FS] på hans argument om nollkunskap för offentliga mynt) men är osäkra när det slumpmässiga oraklet ersätts av någon effektivt beräkningsbar funktion. Definition 2.1 (TM obfuscator). En probabilistisk algoritm O är en TM obfuscator för samlingen F av Turing maskiner om följande tre villkor håller: 5 Se Fotnot 7.
Black-Box Obfuscation REF ) garanterar att all information som kan härledas från det obfuscated programmet också kan läras med svart-box tillgång till det ursprungliga programmet.
2,409,597
On the (Im)possibility of Obfuscating Programs
{'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Computer Science']}
83,065
Webbtjänstens sammansättning möjliggör sömlös och dynamisk integrering av affärsapplikationer på webben. Den sammansatta ansökans prestanda bestäms av de berörda webbtjänsternas prestanda. Därför är icke-funktionella kvalitetsaspekter av avgörande betydelse för valet av webbtjänster för att delta i sammansättningen. Att identifiera de bästa kandidaternas webbtjänster från en uppsättning funktionellt likvärdiga tjänster är ett problem med beslutsfattandet på flera kriterier. De valda tjänsterna bör optimera den totala QoS för den sammansatta applikationen, samtidigt som de uppfyller alla de begränsningar som kunden anger på individuella QoS-parametrar. I detta dokument föreslår vi en strategi som bygger på begreppet skyline för att på ett effektivt och ändamålsenligt sätt välja tjänster för sammansättning, vilket minskar antalet kandidattjänster som ska beaktas. Vi diskuterar också hur en leverantör kan förbättra sin service för att bli mer konkurrenskraftig och öka sin potential att ingå i sammansatta applikationer. Vi utvärderar vårt tillvägagångssätt experimentellt med hjälp av både verkliga och syntetiskt genererade dataset.
För att minska antalet tjänster som ska beaktas föreslår de ytterligare ett tillvägagångssätt som bygger på begreppet skyline Ref.
9,573,183
Selecting skyline services for QoS-based web service composition
{'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,066
Rekommendationssystem spelar en viktig roll för att hålla användarna engagerade med personligt innehåll i moderna onlineplattformar. Djupt lärande har revolutionerat många forskningsområden och det finns en ny våg av intresse för att tillämpa det på samarbetsfiltrering (CF). Befintliga metoder komponerar dock djupinlärningsarkitekturer med den latenta faktormodellen utan att ignorera en större klass av CF-modeller, grannskap eller minnesbaserade metoder. Vi föreslår Collaborative Memory Networks (CMN), en djup arkitektur för att förena de två klasserna av CF-modeller som utnyttjar styrkan i den globala strukturen av latent faktormodell och lokal stadsdelsbaserad struktur på ett ickelinjärt sätt. Motiverade av framgången med Memory Networks, smälter vi samman en minneskomponent och neural uppmärksamhet mekanism som grannskapet komponenten. Den associativa adresseringsschemat med användaren och objektminnen i minnesmodulen kodar komplexa användar-objekt relationer i kombination med neural uppmärksamhet mekanism för att lära sig en användar-objekt specifika grannskap. Slutligen utnyttjar utdatamodulen tillsammans grannskapet med användaren och objektminnen för att producera rankingpoängen. Stapling flera minnesmoduler tillsammans ger djupare arkitekturer fånga allt mer komplexa användarobjekt relationer. Dessutom visar vi starka kopplingar mellan CMN-komponenter, minnesnätverk och de tre klasserna av CF-modeller. Omfattande experimentella resultat visar CMN:s effektivitet på tre offentliga datauppsättningar som överträffar konkurrenskraftiga baslinjer. Kvalitativ visualisering av uppmärksamhetsvikterna ger insikt i modellens rekommendationsprocess och föreslår närvaro av högre orderinteraktioner.
Det mest närbesläktade arbetet med vårt arbete föreslås nyligen (Collaborative Memory Network (CMN) REF ).
13,756,507
Collaborative Memory Network for Recommendation Systems
{'venue': "SIGIR '18", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,067
Abstrakt. I detta dokument föreslår vi en datautvinningsteknik för att hitta ofta använda webbsidor. Dessa sidor kan förvaras i en servers cache för att snabba upp webbåtkomsten. Befintliga tekniker för att välja sidor som ska cachas fångar inte en användares surfmönster korrekt. Vi använder en Weighted Association Rule (WAR) gruvteknik som hittar sidor av användarens nuvarande intresse och cache dem för att ge snabbare nätåtkomst. Detta tillvägagångssätt fångar både användarens vana och intresse jämfört med andra tillvägagångssätt där tonvikten endast ligger på vana.
Här använder de en viktad föreningsregel (WAR) gruvteknik som hittar sidor av användarens nuvarande intresse och cache dem för att ge snabbare nettoåtkomst REF.
17,256,640
Speeding up web access using weighted association rules
{'venue': 'PReMI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,068
ABSTRACT Social recommender är ett aktivt forskningsområde. De flesta tidigare sociala rekommendationer antar befintliga sociala nätverk för att förstärka rekommendationer som bygger på användarnas preferenser. I detta bidrag föreslår vi att man samtidigt drar slutsatsen det sociala influensnätverket och användarnas preferenser i en matrisfaktoriseringsram. Dessutom utgår vi ifrån att påverkansstyrkan är beroende av användarnas sociala roller. Vi presenterar en inkrementell klusteralgoritm för att upptäcka dynamiska sociala roller. Omfattande experiment på verkliga datauppsättningar visar hur effektiv och effektiv vår modell är för att generera exakta rekommendationer. INDEX TERMS Social roll, recommender system, social rekommendation, matris factorization.
Baserat på antagandet att påverkansstyrkan är beroende av användarnas sociala roller föreslår författarna till REF en stegvis klusteralgoritm för att upptäcka dynamiska sociala roller.
49,869,823
Recommendation With Social Roles
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
83,069
Mätmeut av omfattningen av diabetesretinopati är en väsentlig del av bedömningen av effekten av lokala eller systemiska behandlingsregimer. Aktuella kliniska studier använder empirikal gradering av retinopati som utförs av en utbildad observatör med hjälp av standardfotografier. Denna metod är relativt godtycklig, liksom tidsödande och ivrig att observera fel. Vi har utvecklat ett digitalt bildsystem och bildbehandling pro gram som ger objektiva, kvantitativa mått på makulaödem, retinala exsudat och mikroaneurysmer i diabetesretinopati. Med fluoresceinangio gram kvantifieras graden av makulaödem både i fråga om det berörda området av fondus och ödemets svårighetsgrad genom analys av de tidsmässiga förändringarna i intensiteten av fluorescens. Fluorescein angiogram används också för att upptäcka och räkna mikroaneurysmer, genom en kombination av skugga korrigering, matchad filtrering, och form algoritmer. För detektion och mätning av näthinneexsudat analyseras en färgtransparens som projiceras genom ett rött fritt filter med hjälp av en kombination av färgkorrigering och tröskelteknik. Det beskrivna systemet är i klinisk användning och har potential för en mängd olika tillämpningar. Med vidareutveckling, digital analys av fondus bilder bör supercede de för närvarande använda manuella semikvantitativa metoder, ger snabbare, mer exakt, objektiva kvantitativa resultat.
Phillips m.fl. REF har föreslagit en metod för kvantifiering av diabetisk makulopati med fluoresceinangiogram.
12,198,554
Quantification of diabetic maculopathy by digital imaging of the fundus
{'venue': 'Eye', 'journal': 'Eye', 'mag_field_of_study': ['Medicine']}
83,070
I detta dokument presenteras en övervakad metod för att identifiera generiska substantivfraser i sitt sammanhang. Allmänna uttalanden uttrycker regellik kunskap om olika slag eller händelser. Därför är deras identifiering viktig för den automatiska uppbyggnaden av kunskapsbaser. I synnerhet är distinktionen mellan generiska och icke-generiska påståenden avgörande för en korrekt kodning av generisk information och information på instansnivå. Generella uttryck har studerats ingående i formella semantik. Med utgångspunkt i detta arbete utforskar vi en corpusbaserad inlärningsmetod för att identifiera generiska NP, med hjälp av urval av språkligt motiverade funktioner. Våra resultat presterar långt över utgångsvärdet och det befintliga tidigare arbetet.
REF använder ett brett spektrum av syntaktiska och semantiska funktioner för att utbilda en övervakad klassificering för att identifiera generiska NP.
5,325,335
Identifying Generic Noun Phrases
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,071
Vi föreslår en mjuk uppmärksamhetsbaserad modell för uppgiften att identifiera åtgärder i videor. Vi använder flera lager Recurrent Neural Networks (RNN) med Long Short-Term Memory (LSTM) enheter som är djupa både rumsligt och tidsmässigt. Vår modell lär sig att fokusera selektivt på delar av videoramarna och klassificerar videor efter att ha tagit några glimtar. Modellen lär sig i huvudsak vilka delar i ramen som är relevanta för den aktuella uppgiften och fäster större vikt vid dem. Vi utvärderar modellen på UCF-11 (YouTube Action), HMDB-51 och Hollywood2 datauppsättningar och analyserar hur modellen fokuserar sin uppmärksamhet beroende på scenen och den handling som utförs.
Sharma m.fl. REF föreslog en soft-attention LSTM ovanpå RNN:erna för att uppmärksamma framträdande delar av videoramarna för klassificering.
362,506
Action Recognition using Visual Attention
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,072
ABSTRACT Vehicular ad hoc-nätverk (VANET) är en teknik som gör det möjligt för smarta fordon att kommunicera med varandra och bilda ett mobilt nätverk. VANET underlättar för användare med förbättrad trafikeffektivitet och säkerhet. Autentiserad kommunikation blir ett av de främsta kraven för VANET. autentisering kan dock avslöja en användares personuppgifter såsom identitet eller plats, och därför måste integriteten för en ärlig användare skyddas. I detta dokument föreslås en effektiv och praktisk pseudonym autentisering protokoll med villkorlig integritet bevarande. Vårt protokoll föreslår en hierarki av pseudonymer baserat på tidsperioden för deras användning. Vi föreslår idén om primära pseudonymer med relativt längre tidsperioder som används för att kommunicera med halvtillförlitliga myndigheter och sekundära pseudonymer med en mindre livslängd som används för att kommunicera med andra fordon. De flesta av de nuvarande pseudonymbaserade tillvägagångssätten är baserade på certifieringslista (CRL) som orsakar betydande kommunikation och lagring overhead eller gruppbaserade tillvägagångssätt som är beräkning dyrt och lider av koncernledningsfrågor. Dessa system lider också av förtroendefrågor i samband med certifieringsmyndigheten. Vårt protokoll förväntar sig bara ett ärligt men nyfiket beteende från annars helt betrodda myndigheter. Vårt föreslagna protokoll skyddar en användares integritet tills användaren ärligt följer protokollet. Om det rör sig om en skadlig verksamhet, avslöjas användarens verkliga identitet för de behöriga myndigheterna. Vårt protokoll kräver inte att upprätthålla en CRL och den inbyggda mekanismen försäkrar mottagaren att meddelandet och motsvarande pseudonym är säkra och autentiska. Vi undersökte noggrant vårt protokoll för att visa dess motståndskraft mot olika attacker och tillhandahålla beräknings- och kommunikationsanalys för att visa dess effektivitet och robusthet. Dessutom simulerade vi vårt protokoll för att analysera nätverksprestandan och resultaten visar genomförbarheten av vårt föreslagna protokoll i form av end-to-end fördröjning och paketleveransförhållande. INDEX TERMS Vehicular adhoc nätverk, autentisering, integritet, pseudonymer.
För att komma över de allmänna kommunikationskostnaderna på grund av referenslaboratoriet presenterade REF en hierarki av pseudonymer för semi-trusted multi-authority VANET för att bevara användarens integritet.
5,800,761
A Hierarchical Privacy Preserving Pseudonymous Authentication Protocol for VANET
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
83,073
Personåteridentifiering (Re-ID) syftar till att matcha personbilder tagna från två icke-överlappande kameror. I detta dokument, en djup hybrid likhet lärande (DHSL) metod för person Re-ID baserat på en konvolution neurala nätverk (CNN) föreslås. I vårt tillvägagångssätt, en lätt CNN-inlärning funktion par för ingångsbild paret extraheras samtidigt. Därefter beräknas både den elementvisa absoluta skillnaden och multiplikationen av CNN inlärningsfunktionen par. Slutligen är en hybrid liknande funktion utformad för att mäta likheten mellan funktionen par, som realiseras genom att lära en grupp av viktkoefficienter för att projicera den elementvisa absoluta skillnaden och multiplikation till en likhet poäng. Följaktligen kan den föreslagna DHSL-metoden rimligen tilldela komplexa funktioner lärande och metrisk inlärning i ett CNN, så att prestandan hos person Re-ID förbättras. Experiment på tre utmanande person Re-ID databaser, QMUL GRID, VIPeR, och CUHK03, illustrerar att den föreslagna DHSL-metoden är överlägsen flera state-of-the-art person Re-ID metoder. Index Terms-Metrisk inlärning, konvolution neurala nätverk, djup hybrid likhet lärande, person om-identifikation (Re-ID).
Zhu m.fl. REF föreslår en metod för djup hybridlikviditetslärande (DHSL) för att matcha personbilder.
6,882,063
Deep Hybrid Similarity Learning for Person Re-Identification
{'venue': 'IEEE Transactions on Circuits and Systems for Video Technology', 'journal': 'IEEE Transactions on Circuits and Systems for Video Technology', 'mag_field_of_study': ['Computer Science']}
83,074
Abstract-Distributed mobile crowd sensing håller på att bli ett värdefullt paradigm, vilket möjliggör en mängd nya applikationer som bygger på mobila nätverk och smarta enheter. Denna trend medför dock flera utmaningar, bland annat behovet av crowdsourcing plattformar för att hantera samspelet mellan applikationer och publiken (deltagare eller arbetstagare). En av de viktigaste funktionerna för sådana plattformar är rumslig uppgiftstilldelning som tilldelar deltagarna avkänningsuppgifter baserat på deras platser. Uppgiftsuppdraget blir kritiskt när deltagarna är tveksamma till att dela sina platser på grund av sekretessproblem. I den här artikeln undersöker vi problemet med rumslig uppgiftstilldelning i crowd sensing när deltagarna använder rumsliga kamouflage för att fördunkla sina platser. Vi undersöker metoder för tilldelning av analysuppgifter till deltagare, effektiv hantering av platsosäkerhet och resursbegränsningar. Vi föreslår en ny tvåstegsoptimeringsmetod som består av global optimering med hjälp av dolda platser följt av en lokal optimering med hjälp av deltagarnas exakta platser utan att bryta mot integriteten. Experimentella resultat med hjälp av både syntetiska och verkliga data visar att våra metoder uppnår hög sensortäckning med låga kostnader med hjälp av dolda platser.
En ny tvåstegsoptimeringsmetod är utformad för att skydda platsens integritet i den rumsliga uppgiftstilldelningen genom att utnyttja dolda platser i den globala optimeringen medan de exakta platserna antas i en efterföljande lokal optimering REF.
1,476,603
Spatial Task Assignment for Crowd Sensing with Cloaked Locations
{'venue': '2014 IEEE 15th International Conference on Mobile Data Management', 'journal': '2014 IEEE 15th International Conference on Mobile Data Management', 'mag_field_of_study': ['Computer Science']}
83,075
Ny forskning om djupa konvolutionella neurala nätverk (CNN) har främst fokuserat på att förbättra noggrannheten. För en given noggrannhetsnivå är det normalt möjligt att identifiera flera CNN-arkitekturer som uppnår den noggrannhetsnivån. Med motsvarande noggrannhet erbjuder mindre CNN-arkitekturer minst tre fördelar: (1) Mindre CNN kräver mindre kommunikation mellan servrar under distribuerad utbildning. (2) Mindre CNN kräver mindre bandbredd för att exportera en ny modell från molnet till en autonom bil. (3) Mindre CNN är mer möjligt att använda på FPGA och annan hårdvara med begränsat minne. För att ge alla dessa fördelar föreslår vi en liten CNN-arkitektur som heter SqueezeNet. SqueezeNet uppnår AlexNet-nivå noggrannhet på ImageNet med 50x färre parametrar. Dessutom, med modellkompression tekniker vi kan komprimera SqueezeNet till mindre än 0.5MB (510× mindre än AlexNet). Arkitekturen SqueezeNet finns att ladda ner här: https://github.com/DeepScale/SqueezeNet
SqueezeNet REF föreslår brandmoduler och uppnår AlexNet-nivå noggrannhet med 50× färre parametrar.
14,136,028
SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and<0.5MB model size
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,076
Många datahanteringstillämpningar, såsom att inrätta webbportaler, hantera företagsdata, hantera samhällsdata och dela vetenskapliga data, kräver integrering av data från flera källor. Var och en av dessa källor ger en uppsättning värden och olika källor kan ofta ge motstridiga värden. För att kunna presentera kvalitetsdata för användarna är det viktigt att dataintegrationssystemen kan lösa konflikter och upptäcka sanna värden. Vanligtvis förväntar vi oss att ett verkligt värde kommer från fler källor än någon enskild falsk källa, så att vi kan ta det värde som tillhandahålls av majoriteten av källorna som sanning. Tyvärr kan ett falskt värde spridas genom kopiering och det gör sanningsfyndigheten extremt knepig. I detta dokument undersöker vi hur man kan finna verkliga värden från motstridiga uppgifter när det finns ett stort antal källor, bland vilka vissa kan kopiera från andra. Vi presenterar ett nytt tillvägagångssätt som tar hänsyn till beroendet mellan datakällor vid upptäckt av sanning. Intuitivt, om två datakällor ger ett stort antal gemensamma värden och många av dessa värden sällan tillhandahålls av andra källor (t.ex. särskilda falska värden), är det mycket troligt att en kopia från den andra. Vi tillämpar Bayesian analys för att bestämma beroendet mellan källor och utforma en algoritm som iterativt upptäcker beroende och upptäcker sanning från motstridiga information. Vi utökar också vår modell genom att beakta exaktheten hos datakällor och likheten mellan värden. Våra experiment på syntetiska data samt verkliga data visar att vår algoritm avsevärt kan förbättra riktigheten av sanningsupptäckt och är skalbar när det finns ett stort antal datakällor.
På senare tid har avancerad teknik föreslagits för att beakta riktigheten i och beroendet av källor vid konfliktlösning REF.
9,664,056
Integrating Conflicting Data: The Role of Source Dependence
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
83,077
I detta dokument ges de viktigaste definitionerna av pålitlighet, ett generiskt begrepp som inkluderar som specialfall attribut som tillförlitlighet, tillgänglighet, säkerhet, sekretess, integritet, hållbarhet osv. Grundläggande definitioner ges först. De kommenteras sedan, och kompletteras med ytterligare definitioner, som tar itu med hoten mot pålitlighet (fel, fel, fel) och attributen pålitlighet. Diskussionen om attributen omfattar förhållandet mellan pålitlighet och säkerhet, överlevnadsförmåga och pålitlighet. Nyckelord: Tillförlitlighet, tillgänglighet, tillförlitlighet, säkerhet, sekretess, integritet, underhållbarhet, säkerhet, överlevnadsförmåga, pålitlighet, fel, fel, fel. Tillhandahållandet av korrekta dator- och kommunikationstjänster har varit ett problem för deras leverantörer och användare sedan de första dagarna. I julinumret 1834 av Edinburgh Review publicerade Dr Dionysius Lardner artikeln "Babbages beräkningsmotor", där han skrev: "Den mest säkra och effektiva kontrollen av fel som uppstår i beräkningsprocessen är att samma beräkningar görs av separata och oberoende datorer; och denna kontroll görs ännu mer avgörande om de gör sina beräkningar med olika metoder". 2 Det måste noteras att termen "dator" i föregående citat avser en person som utför beräkningar, och inte den "kalkylerande motorn". Den första generationen elektroniska datorer (från 1940 till mitten av 50-talet) använde ganska opålitliga komponenter, varför praktiska tekniker användes för att förbättra deras tillförlitlighet, såsom felkoder, dubblering med jämförelse, triplikation med röstning, diagnostik för att lokalisera misslyckade komponenter, etc. Samtidigt J. von Neumann [von Neumann 1956], E. F. Moore och C. E. Shannon [Moore & Shannon 1956], och deras efterträdare utvecklade teorier om att använda redundans för att bygga tillförlitliga logiska strukturer från mindre tillförlitliga komponenter, vars fel maskerades av förekomsten av flera överflödiga komponenter. Teorierna om maskering redundans förenades av W. H. Pierce som begreppet misslyckande tolerans 1965 [Pierce 1965]. År 1967, A. Avižienis integrerad maskering med praktiska tekniker för feldetektering, feldiagnos, och återhämtning i begreppet feltoleranta system [Avižienis 1967]. Inom området för modellering av tillförlitlighet var den stora händelsen införandet av täckningskonceptet av Bouricius, Carter och Schneider [Bouricius et al. 1969]............................................................... Arbetet med programvara feltolerans initierades av Elmendorf [Elmendorf 1972], senare kompletterades det med återhämtning block [Randell 1975], och av N-version programmering [Avižienis & Chen, 1977]. [Laprie 1992], där den engelska texten också översattes till franska, tyska, italienska och japanska. I denna bok listades avsiktliga fel (dålig logik, intrång) tillsammans med oavsiktliga fel (fysiska fel, konstruktionsfel eller interaktionsfel). Förberedande forskning om integrering av feltolerans och försvar mot avsiktligt skadliga fel, dvs. säkerhetshot, inleddes i mitten av 80-talet [Dobson & Randell 1986], [Joseph & Avižienis 1988], [Fray et al. 1986]................................................................. Den första IFIP-arbetskonferensen om tillförlitliga data för kritiska tillämpningar (DCCA) hölls 1989. Detta och de sex arbetskonferenser som följde främjade samverkan mellan tillförlitlighets- och säkerhetsgrupper och främjade integreringen av säkerhet (konfidentiellhet, integritet och tillgänglighet) i ramen för tillförlitlig databehandling. Sedan 2000 har DCCA:s arbetskonferens tillsammans med FTCS blivit en del av den internationella konferensen om tillförlitliga system och nätverk (DSN). Tillförlitlighet och dess hot: En taxonomi I detta avsnitt presenterar vi en grundläggande uppsättning definitioner (i fetstil) som kommer att användas under hela diskussionen om taxonomi för tillförlitlig databehandling. Definitionerna är tillräckligt allmänna för att täcka hela spektrumet av dator- och kommunikationssystem, från individuella logiska grindar till nätverk av datorer med mänskliga operatörer och användare. Ett system i vår taxonomi är en enhet som interagerar med andra entiteter, d.v.s. andra system, inklusive hårdvara, programvara, människor och den fysiska världen med dess naturliga fenomen. Dessa andra system är miljön i det givna systemet. Systemgränsen är den gemensamma gränsen mellan systemet och dess omgivning. Dator- och kommunikationssystem kännetecknas av fyra grundläggande egenskaper: funktionalitet, prestanda, pålitlighet och kostnad. Dessa fyra fastigheter påverkas kollektivt av två andra egenskaper: användbarhet och anpassningsförmåga. Funktionen hos ett sådant system är vad systemet är avsett att göra och beskrivs av den funktionella specifikationen i fråga om funktionalitet och prestanda. Tillförlitlighet och kostnader har separata specifikationer. Ett systems beteende är vad systemet gör för att genomföra sin funktion och beskrivs av en sekvens av tillstånd. Det totala tillståndet för ett givet system är uppsättningen av följande tillstånd: beräkning, kommunikation, lagrad information, sammankoppling och fysisk kondition. Ett systems struktur gör det möjligt för det att skapa beteendet. Ur strukturell synvinkel är ett system en uppsättning komponenter som binds samman för att interagera, där varje komponent är ett annat system, etc. Rekursionen upphör när en komponent anses vara atomär: någon annan inre struktur kan inte urskiljas, eller är inte av intresse och kan ignoreras. Den tjänst som levereras av ett system (leverantören) är dess beteende som det uppfattas av dess användare; en användare är ett annat system som tar emot tjänsten från leverantören. Den del av leverantörens systemgräns där tjänsten levereras är servicegränssnittet. Den del av leverantörens totala tillstånd som är begriplig vid servicegränssnittet är dess externa tillstånd; den återstående delen är dess interna tillstånd. Den levererade tjänsten är en sekvens av leverantörens externa stater. Vi noterar att ett system kan vara en leverantör eller samtidigt en användare med avseende på ett annat system, dvs. leverera tjänsten till och ta emot tjänsten från det andra systemet. Det är vanligt att ha en hierarkisk syn på en systemstruktur. Förhållandet består av, eller bryts ner i, inducerar en hierarki; men det avser endast förteckningen över systemkomponenter. En hierarki som tar hänsyn till systemets beteende är relationen använder [Parnas 1974, Ghezzi et al. Vi har fram till nu använt singular för funktion och service. Ett system implementerar i allmänhet mer än en funktion och levererar mer än en tjänst. Funktion och tjänst kan således ses som sammansatt av funktionsobjekt och tjänsteobjekt. För enkelhetens skull kommer vi helt enkelt att använda plural-funktionerna, tjänsterna - när det är nödvändigt att skilja mellan flera funktioner eller tjänster. Korrekt service levereras när tjänsten implementerar systemfunktionen. Ett tjänstefel är en händelse som inträffar när den levererade tjänsten avviker från korrekt tjänst. En tjänst misslyckas antingen på grund av att den inte överensstämmer med den funktionella specifikationen eller på grund av att denna specifikation inte på ett tillfredsställande sätt beskriver systemfunktionen. Ett tjänstefel är en övergång från korrekt tjänst till felaktig tjänst, dvs. till att inte implementera systemfunktionen. Perioden för leverans av felaktig tjänst är ett tjänsteavbrott. Övergången från felaktig service till korrekt service är en servicerenovering. Avvikelsen från korrekt tjänst kan anta olika former som kallas service fellägen och rankas enligt fel svårighetsgrader. En detaljerad taxonomi för fellägen presenteras i avsnitt 4. Eftersom en tjänst är en sekvens av systemets externa tillstånd innebär ett tjänstefel att minst ett (eller flera) externt tillstånd i systemet avviker från det korrekta drifttillståndet. Avvikelsen kallas ett fel. Den bedömda eller hypotetiska orsaken till ett fel kallas ett fel. I de flesta fall orsakar ett fel först ett fel i servicetillståndet för en komponent som är en del av systemets interna tillstånd och den externa staten påverkas inte omedelbart. Av detta skäl är definitionen av ett fel: den del av systemets totala tillstånd som kan leda till dess efterföljande tjänstefel. Det är viktigt att notera att många fel inte når systemets yttre tillstånd och orsakar ett misslyckande. Ett fel är aktivt när det orsakar ett fel, annars är det vilande. När den funktionella specifikationen för ett system innehåller en uppsättning av flera funktioner, kan ett fel på en eller flera av de tjänster som implementerar funktionerna lämna systemet i ett försämrat läge som fortfarande erbjuder en delmängd av nödvändiga tjänster till användaren. I specifikationen kan flera sådana lägen identifieras, t.ex. långsam service, begränsad service, räddningstjänst osv. Här säger vi att systemet delvis har misslyckats med sin funktionalitet eller prestanda. Utvecklingsfel och tillförlitlighetsfel som diskuteras i avsnitt 4 kan också vara partiella misslyckanden. Tillförlitlighet och dess hot: En Taxonomi5 Den allmänna, kvalitativa, definitionen av tillförlitlighet är: förmågan att leverera tjänster som med rätta kan lita på. I denna definition betonas behovet av rättfärdigande av förtroende. Den alternativa kvantitativa definition som ger kriteriet för att avgöra om tjänsten är tillförlitlig är: ett systems tillförlitlighet är förmågan att undvika tjänstefel som är mer frekventa och allvarligare än vad som är godtagbart för användaren/användarna. Som utvecklats under de senaste tre decennierna, pålitlighet är ett integrerande koncept som omfattar följande attribut: • tillgänglighet: beredskap för korrekt tjänst, • pålitlighet: kontinuitet av korrekt tjänst, • säkerhet: avsaknad av katastrofala konsekvenser för användare och miljö, • sekretess: avsaknad av obehörigt utlämnande av information, • integritet: avsaknad av felaktiga systemförändringar, • underhållbarhet: förmåga att genomgå, modifieringar och reparationer. Säkerhet är den samtidiga förekomsten av a) tillgänglighet endast för auktoriserade användare, b) sekretess, och c) integritet med "otillåten" betyder "otillåten". Tillförlitlighetsspecifikationen för ett system måste innehålla krav på tillförlitlighetsattribut när det gäller den godtagbara frekvensen och svårighetsgraden av fel för de angivna felklasserna och en given användningsmiljö. En eller flera attribut kan inte krävas alls för ett visst system. Taxonomi för attributen pålitlighet presenteras i avsnitt 5. Under de senaste femtio åren har många metoder utvecklats för att uppnå egenskaperna pålitlighet. Dessa metoder kan grupperas i fyra huvudkategorier: • förebyggande av fel: medel för att förhindra förekomst eller införande av fel; • feltolerans: medel för att undvika tjänstefel i närvaro av fel; • avlägsnande av fel: medel för att minska antalet och svårighetsgraden av fel; • felprognoser: medel för att uppskatta det nuvarande antalet, den framtida förekomsten, och de sannolika konsekvenserna av fel. Felförebyggande och feltolerans syftar till att ge möjlighet att leverera en tjänst som kan lita på, medan felborttagning och felprognoser syftar till att uppnå förtroende för denna förmåga genom att motivera att de funktionella och tillförlitliga specifikationerna är tillräckliga och att systemet sannolikt kommer att uppfylla dem. FAULTERNAS TAXONOMI detta och nästa avsnitt presenterar vi taxonomi för hot som kan påverka ett system under hela dess liv. Ett systems livscykel består av två faser: utveckling och användning. Utvecklingsfasen omfattar alla aktiviteter från presentation av användarens ursprungliga koncept till beslut att systemet har klarat alla acceptanstester och är redo att användas i användarens miljö. Under utvecklingsfasen samverkar systemet med utvecklingsmiljön och utvecklingsfel kan införas i systemet av miljön. Utvecklingsmiljön i ett system består av följande element: 1. den fysiska världen med sina naturliga fenomen; 2. mänskliga utvecklare, några möjligen saknar kompetens eller har skadliga mål; 3. utvecklingsverktyg: programvara och hårdvara som används av utvecklarna för att hjälpa dem i utvecklingsprocessen; 4. produktion och testanläggningar. Användningsfasen för ett systems livslängd börjar när systemet accepteras för användning och börjar leverera sina tjänster till användarna. Användning består av alternerande perioder av korrekt leverans av tjänster (som ska kallas leverans av tjänster), Taxonomi 7 service avbrott, och service avstängning. Ett tjänsteavbrott orsakas av ett tjänstefel. Det är den period då felaktig tjänst (inklusive ingen tjänst alls) levereras vid servicegränssnittet. En avstängning av en tjänst är ett avsiktligt stopp för en tjänst som utförs av ett auktoriserat företag. Underhållsåtgärder kan äga rum under alla tre perioderna av användningsfasen. Under användningsfasen interagerar systemet med dess användningsmiljö och kan påverkas negativt av fel som härrör från den. Användningsmiljön består av följande element: 1. den fysiska världen med dess naturliga fenomen; 2. administratörerna (inklusive utvecklare): enheter (människor, andra system) som har befogenhet att hantera, ändra, reparera och använda systemet; vissa auktoriserade människor kan sakna kompetens eller ha skadliga mål; 3. användarna: enheter som tar emot tjänster vid tjänstegränssnitten; 4. leverantörerna: enheter som levererar tjänster till systemet vid dess tjänstegränssnitt; 5. fasta resurser: enheter som inte är användare, men tillhandahåller specialiserade tjänster till systemet, såsom informationskällor (t.ex. GPS, tid, etc.).), kommunikationslänkar, kraftkällor, kylluftsflöde osv. 6. inkräktarna: skadliga enheter som inte har någon behörighet men försöker tränga in i systemet och att ändra tjänsten eller stoppa det, ändra systemets funktionalitet eller prestanda, eller att få tillgång till konfidentiell information. De är hackare, skadliga insiders, agenter för fientliga regeringar eller organisationer, och info-terrorister. Som används här, termen underhåll, efter vanlig användning, omfattar inte bara reparationer, men också alla ändringar av systemet som sker under användningsfasen av systemets livslängd. Därför är underhåll en utvecklingsprocess och den föregående diskussionen om utveckling gäller även underhåll. De olika formerna av underhåll sammanfattas i Det är värt att notera att reparation och feltolerans är relaterade begrepp; skillnaden mellan feltolerans och underhåll i detta papper är att underhåll innebär deltagande av en extern agent, t.ex. en reparatör, testutrustning, fjärr omlastning av programvara. Dessutom är reparation en del av felborttagning (under användningsfasen), och felprognoser tar vanligtvis hänsyn till reparationssituationer. Alla fel som kan påverka ett system under dess livstid klassificeras enligt åtta grundläggande synpunkter som visas i figur 3. Klassificeringskriterierna är följande: 1. Den fas av systemets livslängd under vilken felen uppstår: • Utvecklingsfel som uppstår under a) systemutveckling, b) underhåll under användningsfasen, och c) generering av rutiner för att driva eller underhålla systemet. • Driftsfel som uppstår under driftleveransen av användningsfasen. 2. Utgångspunkten är följande: Placeringen av fel med avseende på systemgränsen: • interna fel som har sitt ursprung inom systemgränsen; • externa fel som har sitt ursprung utanför systemgränsen och sprider fel i systemet genom interaktion eller störning. • naturliga fel som orsakas av naturfenomen utan mänskligt deltagande, • mänskliga fel som beror på mänskliga handlingar. Taxonomi 9 4. Den dimension i vilken felen har sitt ursprung: • maskinvarufel (fysiska) som har sitt ursprung i eller påverkar hårdvara; • programvarufel (informationsfel) som påverkar programvara, dvs. program eller data. • skadliga fel som införs av en människa med det illvilliga målet att orsaka skada på systemet; • icke skadliga fel som införs utan ett illvilligt mål. 6. Vad är det som händer? Avsikten med den eller de människor som orsakade felen: • avsiktliga fel som är resultatet av ett skadligt beslut; • icke-deliberata fel som införs utan medvetenhet. 7. Vad är det som händer? Förmågan hos den eller de människor som införde felen: • oavsiktliga fel som oavsiktligt införs; • inkompetensbrister som beror på bristande yrkeskompetens hos den eller de bemyndigade människorna, eller på otillräcklighet hos utvecklingsorganisationen. 8. Vad är det som händer? Den tidsmässiga varaktigheten av felen: • permanenta fel vars närvaro antas vara kontinuerlig i tiden; • övergående fel vars närvaro är begränsad i tiden. Om alla kombinationer av de åtta grundläggande felklasserna var möjliga skulle det finnas 256 olika kombinerade felklasser. I själva verket är antalet troliga kombinationer 31; de visas i figur 3.3 De kombinerade felen i figurerna 3.3 och 3.4 visas tillhöra tre större delvis överlappande grupperingar: • utvecklingsfel som inkluderar alla felklasser som uppstår under utvecklingen; • fysiska fel som inkluderar alla felklasser som påverkar hårdvaran; • interaktionsfel som inkluderar alla yttre fel. I rutorna längst ner i figur 3.3 anges namnen på några illustrativa felklasser. Definitionen av mänskliga fel (som är ett resultat av skadliga mänskliga handlingar) omfattar avsaknad av åtgärder när handlingar ska utföras, dvs. fel som utelämnats eller helt enkelt utelämnats. Att utföra orätta handlingar leder till fel i provisionen. De två grundläggande klasserna av mänskliga fel kännetecknas av syftet med utvecklaren eller de människor som interagerar med systemet under dess användning: • skadliga fel, som införs under endera systemutveckling med avsikt att orsaka skada på systemet under dess användning (#5-#6), eller direkt under användning (#22-#25) Beroende och dess hot: En Taxonomi • icke-skadliga fel (#1-#4, #7-#21, #26-#31), införs utan skadliga mål. Skadliga mänskliga fel introduceras av en utvecklare med det skadliga målet att ändra systemets funktion under användning. Målet med sådana fel är 1) att störa eller stoppa tjänsten, 2) att få tillgång till konfidentiell information eller 3) att otillbörligt ändra systemet. De är grupperade i två klasser: • potentiellt skadliga komponenter (#5, #6): Trojanska hästar, fällor, logik eller timing bomber, • avsiktligt infört programvara eller hårdvara sårbarheter eller mänskliga fel. Målen för skadliga fel är: 1) att störa eller stoppa tjänsten (vilket framkallar överbelastning), 2) att få tillgång till konfidentiell information, eller 3) att felaktigt ändra systemet. De faller i två klasser: Avsiktliga, icke-skadliga, utvecklingsfel beror i allmänhet på kompromisser, antingen a) som syftar till att bevara godtagbara prestanda, att underlätta systemutnyttjandet, eller b) som orsakas av ekonomiska överväganden. Avsiktliga, icke-skadliga interaktionsfel kan vara ett resultat av en operatörs agerande som antingen syftar till att övervinna en oförutsedd situation eller avsiktligt bryter mot ett verksamhetsförfarande utan att ha insett de eventuella skadliga konsekvenserna av denna åtgärd. Avsiktliga icke-skadliga fel delar egendomen som det ofta erkänns att de var fel först efter ett oacceptabelt systembeteende, alltså ett misslyckande, har uppstått; utvecklaren eller operatören eller operatörerna insåg inte att följden av deras beslut var ett fel. Det anses ofta att både misstag och dåliga beslut är oavsiktliga, så länge de inte görs med skadliga mål. Men det är inte alla misstag och dåliga beslut som begås av personer som inte är illvilliga som är olyckor. Vissa mycket skadliga misstag och mycket dåliga beslut fattas av personer som saknar yrkesmässig kompetens för att utföra det arbete de har utfört. En fullständig feltaxonomi bör inte dölja denna orsak till fel, därför inför vi en ytterligare uppdelning av båda klasserna av icke-skadliga mänskliga fel i (1) oavsiktliga fel, och (2) inkompetens fel. Strukturen för denna mänskliga feltaxonomi visas i figur 3.5.
Enligt Avizienis et al. REF tillförlitlighet är ett överordnat koncept som omgrupperar olika systemattribut såsom tillförlitlighet, säkerhet, säkerhet eller tillgänglighet och icke-funktionella krav för moderna inbyggda system.
14,893,317
Dependability and Its Threats: A Taxonomy
{'venue': 'IFIP Congress Topical Sessions', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,078
I detta arbete utökar vi konceptet med upplänk-nedlänkfrekvensbalansering till frekvensdivision duplex (FDD) massiva MIMO-system. Vi anser att en basstation med stora antenner som betjänar många enskilda antennanvändare. Vi visar först att eventuell outnyttjad kapacitet i upplänken kan handlas bort för högre genomströmning i nedlänken i ett system som använder antingen smutsigt papper (DP) kodning eller linjär noll-forcing (ZF) förkodning. Vi studerar sedan också skalning av systemet genomströmning med antalet antenner i fall av linjär Beamformning (BF) Prekodning, ZF Prekodning, och DP kodning. Vi visar att nedlänken genomströmning är proportionell mot logaritmen av antalet antenner. Även om denna logaritmiska skalning är lägre än den linjära skalningen av hastigheten i upplänken, kan det fortfarande ge betydande genomströmningsvinster. Till exempel visar vi genom analys och simulering att öka antalet antenner från 4 till 128 kommer att öka genomströmningen med mer än en faktor på 5. Vi visar också att en logaritmisk skalning av nedlänkens genomströmning som en funktion av antalet mottagningsantenner kan uppnås även när antalet sändningsantenner bara ökar logaritmiskt med antalet mottagningsantenner. I. Bergel är med
Downlink throughput skalning beteende undersöktes i REF, där det visades att oanvänd uplink throughput kan användas för att byta av för downlink throughput och att downlink throughput är proportionell mot logaritmen av antalet basstation antenner.
1,301,331
Uplink Downlink Rate Balancing and throughput scaling in FDD Massive MIMO Systems
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,079
Vi presenterar en metod för 3D-objektdetektering och poserar uppskattning från en enda bild. I motsats till nuvarande tekniker som endast regresserar 3D-orienteringen av ett objekt, vår metod regresserar först relativt stabila 3D-objektegenskaper med hjälp av ett djupt konvolutionellt neuralt nätverk och sedan kombinerar dessa uppskattningar med geometriska begränsningar som tillhandahålls av en 2D-objekt avgränsande låda för att producera en komplett 3D-gränsande låda. Den första nätverksutgången uppskattar 3D-objektorienteringen med hjälp av en ny hybrid diskret-kontinuerlig förlust, som avsevärt överträffar L2-förlusten. Den andra produktionen regresserar 3D-objekt dimensionerna, som har relativt lite varians jämfört med alternativ och kan ofta förutsägas för många objekttyper. Dessa uppskattningar, i kombination med de geometriska begränsningar för översättning som införs av 2D-gränsrutan, gör det möjligt för oss att återställa en stabil och korrekt 3D-objekt pose. Vi utvärderar vår metod på det utmanande KITTI-objektdetekteringsriktmärket [2] både på det officiella måttet för 3D-orienteringsuppskattning och på noggrannheten hos de erhållna 3D-begränsande rutorna. Även om vår metod är konceptuellt enkel, överträffar den mer komplexa och beräkningsmässigt dyra metoder som utnyttjar semantisk segmentering, till exempel segmentering på nivå och platta markposter [4] och upptäckt underkategori [23] [24]. Vår diskret-kontinuerliga förlust ger också toppmoderna resultat för 3D synvinkel uppskattning på Pascal 3D+ dataset [26]. * Arbete som praktikant på Zoox, Inc.
På den monokulära sidan föreslår REF att man uppskattar 3D-bindningsrutor med relation och begränsningar mellan 2D- och 3D-bindningsrutor.
8,694,036
3D Bounding Box Estimation Using Deep Learning and Geometry
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
83,080
I detta dokument föreslår vi PointRCNN för 3D-objektdetektering från råpunktsmoln. Hela ramen består av två steg: steg 1 för generering av 3D-förslag nedifrån och upp och steg 2 för raffinering av förslag i de kanoniska koordinaterna för att uppnå de slutliga detekteringsresultaten. Istället för att skapa förslag från RGB-bild eller projiceringspunktmoln till fågelperspektiv eller voxels som tidigare metoder gör, genererar vårt delnätverk steg-1 direkt ett litet antal högkvalitativa 3D-förslag från punktmolnet på ett nedifrån-och-upp-sätt via segmentering av hela scenens punktmoln i förgrundspunkter och bakgrund. Etapp 2-undernätverket omvandlar de sammanslagna punkterna i varje förslag till kanoniska koordinater för att lära sig bättre lokala rumsliga funktioner, som kombineras med globala semantiska funktioner för varje punkt som lärs in i steg-1 för exakt förfining och förtroendeförutsägelse. Omfattande experiment på 3D-detektionsriktmärket för KITTI-data visar att vår föreslagna arkitektur överträffar toppmoderna metoder med anmärkningsvärda marginaler genom att endast använda punktmoln som ingång. Koden finns på https://github.com/sshaoshuai/PointRCNN.
Shi och Al. Ref föreslog pointRCNN-arkitekturen för att direkt generera 3D-förslag från råpunktsmolnet genom att segmentera förgrundspunkterna och förfina dem i de kanoniska koordinaterna.
54,607,410
PointRCNN: 3D Object Proposal Generation and Detection From Point Cloud
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
83,081
I detta dokument presenterar vi en ny strategi för att förutsäga brottslighet i ett geografiskt utrymme från flera datakällor, särskilt mobiltelefoner och demografiska data. Det viktigaste bidraget från det föreslagna tillvägagångssättet är att använda aggregerade och anonymiserade mänskliga beteendedata som härrör från mobil nätverksaktivitet för att ta itu med problemet med brottsprognoser. Även om tidigare forskningsinsatser har använt antingen historisk bakgrundskunskap eller brottsförbrytares profilering stöder våra resultat hypotesen att aggregerade mänskliga beteendedata från mobilnätsinfrastrukturen, i kombination med grundläggande demografisk information, kan användas för att förutsäga brott. I våra experimentella resultat med verkliga brottsdata från London får vi en noggrannhet på nästan 70% när vi förutspår om ett specifikt område i staden kommer att vara en brott hotspot eller inte. Dessutom ger vi en diskussion om konsekvenserna av våra resultat för datadriven brottsanalys.
Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF använder mänskliga beteendedata från mobila nätverk och demografiska källor, tillsammans med öppna brottsdata för att förutsäga brottshotspots.
746,921
Once Upon a Crime: Towards Crime Prediction from Demographics and Mobile Data
{'venue': None, 'journal': 'Proceedings of the 16th International Conference on Multimodal Interaction', 'mag_field_of_study': ['Computer Science', 'Physics']}
83,082
Domänanpassning syftar till att utbilda en klassificering i en datauppsättning och tillämpa den på en relaterad men inte identisk datauppsättning. Ett framgångsrikt använt ramverk för domänanpassning är att lära sig en omvandling för att matcha både distributionen av funktionerna (marginalfördelning) och distributionen av etiketterna angivna funktioner (villkorlig distribution). I detta dokument föreslår vi en ny ram för domänanpassning som heter Deep Transfer Network (DTN), där de mycket flexibla djupa neurala nätverken används för att genomföra en sådan distributionsmatchningsprocess. Detta uppnås genom två typer av lager i DTN: de delade utvinningsskikten som lär sig en delad funktionsdelrymd där käll- och målprovernas marginella fördelning dras nära, och de diskrimineringsskikt som matchar villkorlig fördelning genom klassificeringstransduktion. Vi visar också att DTN har en beräkningskomplexitet linjär till antalet träningsprover, vilket gör den lämplig för storskaliga problem. Genom att kombinera de bästa paradigmerna i båda världarna (djupa neurala nätverk i igenkänning, och matchande marginella och villkorliga fördelningar i domänanpassning), visar vi genom omfattande experiment att DTN avsevärt förbättrar över tidigare metoder i både utförandetid och klassificering noggrannhet.
Deep Transfer Network (DTN) REF använder ett djupt neuralt nätverk för att modellera och matcha både domänerna marginella och villkorliga distributioner.
14,814,410
Deep Transfer Network: Unsupervised Domain Adaptation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,083
Abstract-Active lärande minskar märkningskostnaden genom att iterativt välja de mest värdefulla data för att fråga sina etiketter. Det har lockat en hel del intressen med tanke på mängden omärkta data och den höga kostnaden för märkning. De flesta aktiva inlärningsmetoder väljer antingen informativa eller representativa omärkta instanser för att fråga ut sina etiketter, vilket avsevärt kan begränsa deras prestanda. Även om flera aktiva inlärningsalgoritmer föreslogs för att kombinera de två urvalskriterierna, är de vanligtvis ad hoc när det gäller att hitta omärkta fall som är både informativa och representativa. Vi tar itu med denna begränsning genom att utveckla en principiell strategi, kallad QUIRE, baserad på minmax-synen på aktivt lärande. Det föreslagna tillvägagångssättet ger ett systematiskt sätt att mäta och kombinera en omärkt instanss informativhet och representativitet. Dessutom, genom att införliva korrelationen mellan etiketter, utökar vi QUIRE-metoden till multi-märkning lärande genom att aktivt fråga instans-märkning par. Omfattande experimentella resultat visar att den föreslagna QUIRE-metoden överträffar flera toppmoderna metoder för aktivt lärande i både enmärkt och flermärkt lärande.
Senare tillvägagångssätt som QUIRE REF väljer exempel som är informativa och representativa för den omärkta datauppsättningen.
8,326,832
Active Learning by Querying Informative and Representative Examples
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,084
Kundens preferenser för produkter glider över tiden. Produktuppfattning och popularitet förändras ständigt när nya val uppstår. På liknande sätt utvecklas kundbenägenhet, vilket får dem att någonsin omdefiniera sin smak. Därför bör modellering temporal dynamik vara en nyckel när man utforma recommender system eller allmänna kundpreferens modeller. Detta medför dock unika utmaningar. Inom ekosystemet skär flera produkter och kunder, många olika egenskaper skiftar samtidigt, medan många av dem påverkar varandra och ofta dessa skift är känsliga och förknippade med några data instanser. Detta skiljer problemet från konceptflykt prospektering, där mestadels ett enda begrepp spåras. Klassiska tidsfönster eller exempeldekay metoder kan inte fungera, eftersom de förlorar för mycket signal när du kastar data fall. Det krävs ett mer känsligt tillvägagångssätt som kan göra bättre åtskillnad mellan övergående effekter och långsiktiga mönster. Paradigmet vi erbjuder är att skapa en modell som följer tidsförändrande beteende under datans hela livslängd. Detta gör det möjligt för oss att utnyttja de relevanta komponenterna i alla datafall, samtidigt som vi bara kasserar det som modelleras som irrelevant. Därför förnyar vi två ledande samarbetsinriktade filtreringsrekommendationer. Utvärdering görs på en stor film rating dataset av Netflix. Resultaten är uppmuntrande och bättre än de som tidigare rapporterats om denna datauppsättning.
Koren REF föreslog en metod för att modellera tiden förändras beteende under hela livslängden av data och förbättrade resultatet av rekommendationen.
3,022,077
Collaborative filtering with temporal dynamics
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,085
Domänanpassning är ett aktivt forskat problem inom Computer Vision. I detta arbete föreslår vi en strategi som utnyttjar oövervakade data för att föra källan och målfördelningen närmare varandra i ett inlärt gemensamt funktionsutrymme. Vi åstadkommer detta genom att framkalla ett symbiotiskt förhållande mellan det lärda inbäddandet och ett generativt kontradiktoriskt nätverk. Detta står i kontrast till metoder som använder den kontradiktoriska ramen för realistisk datagenerering och omskolning av djupa modeller med sådana data. Vi visar styrkan och generaliteten i vår strategi genom att utföra experiment på tre olika uppgifter med varierande svårighetsgrader: (1) Digit klassificering (MNIST, SVHN och USPS dataset) (2) Objektigenkänning med hjälp av BYRÅ dataset och (3) Domän anpassning från syntetiska till verkliga data. Vår metod uppnår state-of-the-art prestanda i de flesta experimentella miljöer och överlägset den enda GAN-baserade metod som har visat sig fungera bra mellan olika datauppsättningar såsom BYRÅ och DIGITS.
En annan GAN-baserad domänanpassningsmetod föreslås i REF där nätverket producerar källliknande bilder från källan och målbäddar.
4,547,917
Generate to Adapt: Aligning Domains Using Generative Adversarial Networks
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
83,086
I detta dokument föreslår vi ett geometriskt-kontrastivt generativt kontrarioellt nätverk GC-GAN för att generera ansiktsuttrycksbilder som är beroende av geometrisk information. Särskilt, med tanke på ett input-ansikte och ett måluttryck som anges av en uppsättning ansiktsmarkeringar, kan ett identitetsbevarande ansikte skapas med hjälp av måluttrycket. För att inbädda ansiktsgeometri på ett semantiskt grenrör införlivar vi kontrasterande inlärning i villkorliga GAN. Experimentella resultat visar att grenröret är känsligt för förändringar i ansiktsgeometri både globalt och lokalt. Med hjälp av det semantiska grenröret visas dynamiska smidiga övergångar mellan olika ansiktsuttryck via geometrisk interpolering. Dessutom kan vår metod även användas i ansiktsuttrycksöverföring även om det finns stora skillnader i ansiktsform mellan målansikten och köransikten.
I samma riktning, Qiao et al. REF, föreslog en geometri-kontrastiv GAN (GC-GAN) för att överföra ansiktsuttryck över olika identiteter med hjälp av ansikte geometri.
3,652,071
Geometry-Contrastive Generative Adversarial Network for Facial Expression Synthesis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
83,087
Abstract-I trådlösa mesh nätverk, den end-to-end genomströmningen av trafikflöden beror på vägen längd, dvs.. Ju högre antal humle, desto lägre blir genomströmningen. I denna artikel, en Fair End-to-end Bandwidth Allocation (FEBA) algoritm införs för att lösa detta problem. FEBA genomförs i skiktet Medium Access Control (MAC) av enkelradio, flera kanaler IEEE 802.16 mesh noder, som drivs i ett distribuerat samordnat schemaläggningsläge. FEBA förhandlar bandbredd bland grannar för att tilldela en rättvis andel till varje end-to-end trafikflöde. Detta sker i två steg. För det första, bandbredd begärs och beviljas på ett round-robin-sätt där kraftigt laddade länkar tillhandahålls med en proportionellt högre mängd service än de lätt laddade länkarna vid varje runda. För det andra buffras paket från olika trafikflöden vid varje utmatningslänk i separata köer som betjänas av DRR (Deficit Round Robin) schemaläggningsalgoritm. Om flera kanaler finns tillgängliga delas de alla jämnt för att öka nätkapaciteten på grund av frekvensåteranvändning. FEBA:s prestanda utvärderas genom omfattande simuleringar och visar sig ge rättvisa genom att balansera bandbredden mellan trafikflödena.
Cicconetti, I. F. Akyildiz, och L. Lenzini REF föreslår en rättvis end-to-end Bandbredd tilldelning (FEBA) algoritm för IEEE 802.16 noder för att förhandla bandbredd i en flerkanalig miljö.
7,488,933
Bandwidth Balancing in Multi-Channel IEEE 802.16 Wireless Mesh Networks
{'venue': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
83,088
Abstract-Ospårbarhet av fordon är ett viktigt krav i framtida fordon kommunikationssystem. Tyvärr, hjärtslag meddelanden som används av många säkerhetsapplikationer ger en konstant st ream av lokaliseringsdata, och utan några skyddsåtgärder, de gör spårning av fordon enkelt även för en passiv tjuvlyssnare. En allmänt känd lösning är att överföra hjärtslag under pseudonymer som ändras regelbundet för att fördunkla banan av fordon. Detta tillvägagångssätt är dock endast effektivt om någon tyst period hålls under pseudonymändringen och flera fordon ändrar sina pseudonymer nästan samtidigt och på samma plats. Till skillnad från tidigare arbeten som föreslog explicit synkronisering mellan en grupp fordon och/eller nödvändig pseudonymförändring i ett angivet fysiskt område (dvs. en statisk blandningszon) föreslår vi ett mycket enklare tillvägagångssätt som inte behöver något uttryckligt samarbete mellan fordon och något infrastrukturstöd. Vår grundidé är att fordon inte ska sända hjärtslag när deras hastighet sjunker under en given tröskel, till exempel 30 km/h, och de ska ändra pseudonym under varje sådan tyst period. Detta säkerställer att fordon stannar vid trafikljus eller rör sig långsamt i en trafikstockning kommer alla att avstå från att sända hjärtslag och ändra sina pseudonymer nästan samtidigt och plats. Således garanterar vår plan både tysta perioder och synkroniserade pseudonym förändring i tid och rum, men det gör det på ett implicit sätt. Vi hävdar också att risken för en dödsolycka med långsam hastighet är låg och att vårt system därför inte allvarligt påverkar livets säkerhet. Dessutom, avstå från att skicka hjärtslag meddelanden när man rör sig i låg hastighet också befriar fordon från bördan att kontrollera en potentiellt stor mängd digitala signaturer, och därmed gör det möjligt att genomföra fordon kommunikation med billigare utrustning.. När beslut om utplaceringen punkter för dessa projekt närmar sig, tillhandahållandet av lämpliga säkerhetsmekanismer kommer att vara en viktig faktor för beslutsfattare. Förutom de vanliga säkerhetskraven för sekretess, autentisering och integritet, erbjuder VANET säkerhet vanligtvis ett ytterligare krav, integritet. Informellt representerar integritetskravet en användares förväntningar på att endast vederbörligen bemyndigade parter kommer att kunna avgöra var han eller hon befann sig vid en given tidpunkt. Denna informella definition kan formaliseras på många sätt, och definitionen av vederbörligen bemyndigade parter kan variera beroende på omständigheterna och från rättskipning till jurisdiktion (eller en användare kan förvänta sig att ingen enhet kan spåra dem alls). Eftersom meddelanden som skickas av fordonen inom VANET kan innehålla metainformation som äventyrar förarnas integritet måste fordonens kommunikationssystem uppfylla följande två egenskaper: pseudonymitet och olänkbarhet. Pseudonymity innebär att identifierare i ett meddelande inte direkt hänvisar till avsändaren av meddelandet, så en tjuvlyssnare kan inte enkelt bestämma avsändarens verkliga identitet. Unlinkability innebär att det är svårt för en angripare att avgöra att två meddelanden har kommit från samma fordon. Denna andra egenskap är nödvändig för att bevara privatlivet i den mening som avses i vårt informella uttalande ovan eftersom en fysisk observation av ett fordon vid punkt A, och möjligheten att koppla dess transmissioner vid A till sändningar vid B, skulle göra det möjligt för en angripare att avgöra att fordonet också hade varit vid punkt B. Observera att vi inte tar upp kortsiktig kopplingsförmåga som krävs för att genomföra fordonssäkerhetstillämpningar. De flesta föreslagna V2X-kommunikationssystemen gör arbetet mer komplicerat och använder sig av ytterligare en typ av starkt integritetshotande meddelande, så kallat hjärtslag (i Amerika) eller signalsignal (i Europa) (se [5] till exempel). Detta meddelande skickas med hög frekvens (10Hz rekommenderas ofta) och innehåller fordonets aktuella position och hastighet, för att förbättra den information som andra förare har om trafikförhållandena i deras omedelbara närhet. En angripare kan därför försöka spåra ett fordon, och därmed bryta dess
I SLOW får Ref-fordon inte sända meddelanden när deras hastighet är lägre än ett tröskelvärde (t.ex. 30 km/h), och fordonen kan ändra sina pseudonymer vid låga körhastigheter.
10,347,748
SLOW: A Practical pseudonym changing scheme for location privacy in VANETs
{'venue': '2009 IEEE Vehicular Networking Conference (VNC)', 'journal': '2009 IEEE Vehicular Networking Conference (VNC)', 'mag_field_of_study': ['Computer Science']}
83,089
Abstract-Human Activity Recognition ger värdefull kontextuell information för välbefinnande, hälso- och sjukvård och sportapplikationer. Under de senaste årtiondena har många metoder för maskininlärning föreslagits för att identifiera aktiviteter från tröghetssensordata för specifika tillämpningar. De flesta metoder, dock, är utformade för offline bearbetning snarare än bearbetning på sensorn noden. I detta dokument är en teknik för erkännande av mänsklig aktivitet baserad på en djupinlärningsmetod utformad för att möjliggöra korrekt och realtidsklassificering för bärbara enheter med låg effekt. För att erhålla varians mot förändringar i sensororientering, sensorplacering, och i sensorinhämtningshastigheter, utformar vi en funktionsgenereringsprocess som tillämpas på spektraldomänen för tröghetsdata. I den föreslagna metoden används i synnerhet summor av tidskonvolutioner av den omvandlade insatsvaran. Den föreslagna metodens noggrannhet utvärderas mot de nuvarande toppmoderna metoderna med hjälp av både laboratorie- och verkliga aktivitetsdata. En systematisk analys av funktionsgenereringsparametrarna och en jämförelse av aktivitetsigenkänningstiderna på mobila enheter och sensornoder presenteras också.
I REF föreslog författarna en teknik för erkännande av mänsklig aktivitet baserad på en djupgående inlärningsmodell avsedd för lågeffektenheter.
17,900,523
Deep learning for human activity recognition: A resource efficient implementation on low-power devices
{'venue': '2016 IEEE 13th International Conference on Wearable and Implantable Body Sensor Networks (BSN)', 'journal': '2016 IEEE 13th International Conference on Wearable and Implantable Body Sensor Networks (BSN)', 'mag_field_of_study': ['Computer Science']}
83,090
Abstract-Wireless accessnät kännetecknas ofta av interaktion mellan olika slutanvändare, kommunikationsteknik och nätverksoperatörer. I detta dokument analyseras dynamiken bland dessa "aktörer" genom att fokusera på processerna för val av trådlösa nätverk, där slutanvändare kan välja bland flera tillgängliga accessnät för att få anslutning, och resursfördelning, där nätoperatörer kan ställa in sina radioresurser för att tillhandahålla anslutning. Interaktionen mellan slutanvändare modelleras som ett icke-kooperativt trängselspel, där spelare (slutanvändare) själviskt väljer det accessnät som minimerar deras upplevda urvalskostnader. En metod baserad på matematisk programmering föreslås för att hitta Nash equilibria och karakterisera deras optimalitet under tre kostnadsfunktioner, som är representativa för olika tekniska scenarier. Systemnivåsimuleringar används sedan för att utvärdera den faktiska genomströmningen och rättvisa jämviktspunkterna. Interaktionen mellan slutanvändare och nätoperatörer bedöms sedan genom ett tvåstegs flerledar-/multiföljarspel, där nätverksoperatörer (ledare) spelar i det första steget genom att korrekt ställa in radioresurserna för att maximera sina användare, och slutanvändare (följare) spelar i det andra steget det ovannämnda nätverksurvalsspelet. Existensen av exakt och approximerad subgame perfekt Nash equilibria av två-stegs spelet är noggrant utvärderad och numeriska resultat ges på "kvalitet" av sådan equilibria.
I Ref föreslår författarna en studie för att fånga dynamiken bland slutanvändare och nätoperatörer i processerna för val av nätverk och resursfördelning.
14,037,736
Network Selection and Resource Allocation Games for Wireless Access Networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
83,091
Åsiktsbildningsprocessen genom syntes och kontrast mellan olika synvinklar har varit föremål för många studier inom nationalekonomi och samhällsvetenskap. I dag manifesterar sig denna process också i sociala nätverk och sociala medier på nätet. Den viktigaste egenskapen hos framgångsrika marknadsföringskampanjer är att de tar hänsyn till en sådan opinionsbildningsdynamik för att skapa en övergripande positiv uppfattning om en specifik informationspunkt, såsom en person, en produkt eller en idé. I detta dokument antar vi en väletablerad modell för social-opinion dynamik och formalisera problemet med kampanjdesign som problemet med att identifiera en uppsättning målpersoner vars positiva åsikt om en informationspunkt kommer att maximera den övergripande positiva åsikten för punkten i det sociala nätverket. Vi kallar detta problem Campaign. Vi studerar komplexiteten i Campaign-problemet och utformar algoritmer för att lösa det. Våra experiment på verkliga data visar effektiviteten och den praktiska nyttan av våra algoritmer.
Gionis, Terzi och Tsaparas REF studerar problemet med att identifiera en uppsättning målpersoner vars positiva åsikter om en informationspunkt kommer att maximera den övergripande positiva åsikten för posten i det sociala nätverket, ur ett algoritmiskt och experimentellt perspektiv.
15,450,775
Opinion Maximization in Social Networks
{'venue': 'Siam International Conference on Data Mining (SDM), 2013', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
83,092
Fog computing växer fram som en kraftfull och populär dator paradigm för att utföra IoT (Internet of Things) applikationer, vilket är en förlängning till molndata paradigm för att göra det möjligt att köra IoT-program i nätet av kanten. IoT-tillämpningarna kan välja dim- eller molndatanoder för att svara på resursbehoven, och belastningsbalansering är en av de viktigaste faktorerna för att uppnå resurseffektivitet och undvika flaskhalsar, överbelastning och låg belastning. Det är dock fortfarande en utmaning att inse belastningsbalansen för datornoder i dimman miljön under genomförandet av IoT-program. Mot bakgrund av denna utmaning föreslås i detta dokument en dynamisk resursfördelningsmetod, DRAM, för lastbalansering i dimmiljö. Tekniskt sett presenteras först ett systemramverk för dimdata och belastningsbalansanalysen för olika typer av datornoder. Därefter är en motsvarande resursfördelningsmetod i dimman utformad genom statisk resursallokering och dynamisk servicemigrering för att uppnå belastningsbalansen för dimdatasystemen. Experimentell utvärdering och jämförelseanalys genomförs för att validera DRAM-minnets effektivitet och effektivitet.
I REF, Xu X et al. föreslog en dynamisk resursfördelningsmetod för lastbalansering i dimdatamiljön – DRAM, som effektivt kan uppnå en effektiv användning av uppgifter och lastbalansering av dimdatanoder, och minska servicefördröjningen.
19,169,452
Dynamic Resource Allocation for Load Balancing in Fog Environment
{'venue': 'Wireless Communications and Mobile Computing', 'journal': 'Wireless Communications and Mobile Computing', 'mag_field_of_study': ['Computer Science']}
83,093
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Snabbare R-CNN REF avancerade denna rörledning genom att optimera den ursprungliga selektiva sökningen med ett regionförslagsnätverk (RPN).
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,094
Abstrakt. I detta arbete införs ett system för att känna igen aktiviteter i hemmet med hjälp av en uppsättning små och enkla tillståndsgivare. Sensorerna är utformade för att vara "band på och glömma" enheter som kan snabbt och allmänt installeras i hemmiljöer. Det föreslagna avkänningssystemet är ett alternativ till sensorer som ibland uppfattas som invasiva, såsom kameror och mikrofoner. Till skillnad från tidigare arbete, systemet har satts in i flera bostadsområden med icke-forskare boende. Preliminära resultat på en liten datauppsättning visar att det är möjligt att känna igen aktiviteter av intresse för läkare som toalettbesök, bad och grooming med detektionsnoggrannhet varierar från 25 % till 89 % beroende på de utvärderingskriterier som används 1.
Tapia m.fl. I Ref föreslogs ett system för erkännande av verksamhet i hemmiljön.
6,495,041
Activity Recognition in the Home Using Simple and Ubiquitous Sensors
{'venue': 'Pervasive', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,095
Klassificering av nätverkstrafik med hjälp av portbaserade eller nyttolastbaserade analyser blir allt svårare med många peer-to-peer-tillämpningar (P2P) som använder dynamiska portnummer, maskerad teknik och kryptering för att undvika upptäckt. Ett alternativt tillvägagångssätt är att klassificera trafiken genom att utnyttja de särskilda egenskaperna hos tillämpningar när de kommunicerar på ett nät. Vi följer detta senare tillvägagångssätt och visar hur klusteranalys kan användas för att effektivt identifiera trafikgrupper som är likartade med hjälp av enbart transportlagerstatistik. Vårt arbete omfattar två oövervakade klusteralgoritmer, nämligen K-Means och DBSCAN, som tidigare inte har använts för klassificering av nätverkstrafik. Vi utvärderar dessa två algoritmer och jämför dem med den tidigare använda AutoClass-algoritmen med hjälp av empiriska Internetspår. De experimentella resultaten visar att både K-Means och DBSCAN fungerar mycket bra och mycket snabbare än AutoClass. Våra resultat indikerar att även om DBSCAN har lägre noggrannhet jämfört med K-Means och AutoClass producerar DBSCAN bättre kluster.
Al REF använde K-mean- och DBSCAN-algoritmer för att klassificera nätverkstrafiken, resultatet visar att K-mean har snabbare prestanda medan DBSCAN har bättre kluster.
2,120,232
Traffic classification using clustering algorithms
{'venue': "MineNet '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,096
Vi anser att den konvexa konkav sadeln problem min x max y f (x) + y Ax − g (y) där f är slät och konvex och g är slät och starkt konvex. Vi bevisar att om kopplingen matris A har full kolonn rank, kan vanilj primaldual gradient metoden uppnå linjär konvergens även om f inte är starkt konvex. Vårt resultat generaliserar tidigare arbete som antingen kräver f och g för att vara kvadratiska funktioner eller kräver proximala kartläggningar för både f och g. Vi antar en ny analysteknik som i varje iteration använder en "ghost" uppdatering som referens, och visar att itererar i den ursprungliga-dual gradient metoden konvergerar till denna "ghost" sekvens. Med samma teknik ger vi vidare en analys av den ursprungliga-dual stokastiska variansen reducerad lutning (SVRG) metod för konvex-konkav sadel punkt problem med en ändlig-summa struktur.
Dessutom visar REF att GDA uppnår en linjär konvergenshastighet när g är konvex och h är starkt konvex.
3,521,793
Linear Convergence of the Primal-Dual Gradient Method for Convex-Concave Saddle Point Problems without Strong Convexity
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,097
Abstrakt. Tidsbestämning är ett viktigt steg i utformningen av tillförlitliga realtidsinbäddade system. I detta papper presenterar vi GameTime, en verktygslåda för exekveringstid analys av programvara. GameTime bygger på en kombination av spelteoretisk online-inlärning och systematisk testning med hjälp av satisfiability modulo-teorier (SMT). I motsats till många befintliga verktyg för timing analys, GameTime kan användas för en rad uppgifter, inklusive att uppskatta värsta fall genomförandetid, förutsäga fördelningen av genomförandetider för en uppgift, och hitta timing relaterade buggar i program. Vi beskriver viktiga genomförandedetaljer av GameTime och illustrerar dess användning genom exempel.
En tidsanalys baserad på spelteoretisk inlärning presenterades i REF.
8,029,850
GameTime: A toolkit for timing analysis of software
{'venue': 'in Proceedings of the 17th International Conference on Tools and Algorithms for the Construction and Analysis of Systems (TACAS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,098
En viktig utmaning när det gäller att utnyttja dataförstärkning för utbildning i neurala nätverk är att välja en effektiv förstärkningspolicy från ett stort sökområde för kandidatoperationer. Korrekt valda förstärkningspolicyer kan leda till betydande generalisering förbättringar; dock, state-of-t heart metoder som AutoAugment är beräkningsbart omöjligt att köra för den vanliga användaren. I detta dokument introducerar vi en ny dataförstärkningsalgoritm, Population Based Augmentation (PBA), som genererar icke-stationära förstärkningspolicyscheman istället för en fast förstärkningspolicy. Vi visar att PBA kan matcha prestandan för AutoAugment på CIFAR-10, CIFAR-100, och SVHN, med tre storleksordningar mindre total beräkning. På CIFAR-10 uppnår vi ett genomsnittligt testfel på 1,46 %, vilket är en liten förbättring jämfört med den nuvarande toppmoderna tekniken. Koden för PBA är öppen källkod och finns på https://github.com/arcelien/pba.
Befolkningsbaserad förstärkning (PBA) REF ersätter den fasta förstärkningspolitiken med en dynamisk plan för förstärkningspolitik tillsammans med utbildningsprocessen, som till största delen är relaterad till vårt arbete.
153,312,991
Population Based Augmentation: Efficient Learning of Augmentation Policy Schedules
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,099
Abstract-Equipping trådlösa noder med flera radioapparater kan avsevärt öka kapaciteten i trådlösa nätverk, genom att dessa radioapparater samtidigt överföra över flera icke-överlappande kanaler. På grund av det begränsade antalet radioapparater och tillgängliga ortogonala kanaler är det dock en stor utmaning att utforma effektiva kanaltilldelningar och schemaläggningsalgoritmer i sådana nätverk. I detta dokument presenterar vi bevisligen bra distribuerade algoritmer för samtidig kanalfördelning av enskilda länkar och paket-schemaläggning, i programvaru-definierade radio (SDR) trådlösa nätverk. Våra distribuerade algoritmer är mycket enkla att genomföra, och kräver inte någon samordning även bland angränsande noder. En ny åtkomsthashfunktion eller slumpmässig oraklemetod är en av de viktigaste drivkrafterna för våra resultat. Med denna access hash funktion, varje radio kan veta sändarens beslut för länkar i dess interferens inställd för varje tid slits utan att införa någon extra kommunikation overhead mellan dem. Dessutom kan varje radio, genom att använda induktiv schemaläggningsteknik, också backa på lämpligt sätt för att undvika kollisioner. Omfattande simuleringar visar att våra gränser är giltiga i praktiken.
Han och Al. REF presenterar bevisligen bra distribuerade algoritmer för samtidig kanalallokering av enskilda länkar och paketplanering, i trådlösa programvarudefinierade radionät (SDR).
987,009
Distributed Strategies for Channel Allocation and Scheduling in Software-Defined Radio Networks
{'venue': 'IEEE INFOCOM 2009', 'journal': 'IEEE INFOCOM 2009', 'mag_field_of_study': ['Computer Science']}
83,100
Distant övervakad relation extrahering har använts i stor utsträckning för att hitta nya relationsfakta från text. Långsiktig övervakning följer dock oundvikligen med fel märkningsproblem, och dessa bullriga data kommer att avsevärt skada prestandan av relationsextraktion. För att lindra denna fråga föreslår vi en exponeringsbaserad modell på straffnivå för relationsextraktion. I denna modell använder vi konvolutionella neurala nätverk för att bädda semantiken av meningar. Efteråt, vi bygga mening-nivå uppmärksamhet över flera fall, vilket förväntas dynamiskt minska tyngderna av dessa bullriga fall. Experimentella resultat på verkliga dataset visar att, vår modell kan utnyttja alla informativa meningar fullt ut och effektivt minska påverkan av fel märkta instanser. Vår modell uppnår betydande och konsekventa förbättringar av relationsextraktionen jämfört med baslinjerna. Källkoden för detta papper kan erhållas från https: // github.com/ tunk/ NRE.
År 2016, Lin et al. REF konstruerade en meningsmässig uppmärksamhet för att dynamiskt minska vikterna av negativa fall, och P@avg-värdet nådde till 72,2 %.
397,533
Neural Relation Extraction with Selective Attention over Instances
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,101
Utbildning Deep Neural Networks kompliceras av att fördelningen av varje lagers ingångar förändras under träningen, eftersom parametrarna för de tidigare lagren förändras. Detta saktar ner utbildningen genom att kräva lägre inlärningstakt och noggrann parameter initialisering, och gör det notoriskt svårt att träna modeller med mättande icke-linjäritet. Vi hänvisar till detta fenomen som internt kovariat skifte, och ta itu med problemet genom att normalisera lageringångar. Vår metod tar sin styrka från att göra normalisering en del av modellen arkitektur och utföra normalisering för varje träning mini-batch. Batch Normalization tillåter oss att använda mycket högre inlärningsfrekvenser och vara mindre försiktig med initiering. Det fungerar också som en regularizer, i vissa fall eliminera behovet av avhopp. Basch Normalization tillämpas på en toppmodern bild klassificering modell, uppnår samma noggrannhet med 14 gånger färre träningssteg, och slår den ursprungliga modellen med en betydande marginal. Med hjälp av en ensemble av batchnormaliserade nätverk, vi förbättra på det bäst publicerade resultatet på ImageNet klassificering: nå 4,9% topp-5 valideringsfel (och 4,8% testfel), överstiger noggrannheten hos mänskliga taxrar.
Ioffe m.fl. noterade att förändringen i fördelningen av lagrens ingångar under utbildningen av djupa neurala nätverk utgör ett allvarligt problem eftersom lagren behöver anpassas till den nya fördelningen kontinuerligt REF; detta fenomen kallades intern kovariat skifte.
5,808,102
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,102
Daikon är en implementation av dynamisk detektion av sannolika invarianter; det vill säga Daikon invariant detektor rapporterar sannolikt programinvarianter. En invariant är en egendom som innehar vid en viss tidpunkt eller punkter i ett program; dessa används ofta i hävda uttalanden, dokumentation och formella specifikationer. Exempel är konstant (x = a), icke-noll (x = 0), vara i ett intervall (a ≤ x ≤ b), linjära relationer (y = ax + b), beställa (x ≤ y), funktioner från ett bibliotek (x = fn(y)), inneslutning (x till y), sorteradhet (x sorteras) och många fler. Användare kan förlänga Daikon för att kontrollera ytterligare invarianter. Dynamisk invariant upptäckt kör ett program, observerar de värden som programmet beräknar, och sedan rapporterar egenskaper som var sanna över de observerade avrättningar. Dynamisk invariant detektion är en maskininlärning teknik som kan tillämpas på godtyckliga data. Daikon kan upptäcka invarianter i C, C++, Java och Perl program, och i rekordstrukturerade datakällor; det är lätt att utöka Daikon till andra program. Invarianter kan vara användbara i programförståelse och en mängd andra tillämpningar. Daikon's output har använts för att generera testfall, förutsäga inkompatibiliteter i komponentintegration, automatisera teorem-proving, reparera inkonsekventa datastrukturer, och kontrollera giltigheten av dataströmmar, bland andra uppgifter. Daikon är fritt tillgänglig i källa och binär form, tillsammans med omfattande dokumentation, på
Daikon är ett verktyg för att härleda troliga invarianter i C, C++, Java eller Perl program REF.
17,620,776
The Daikon system for dynamic detection of likely invariants
{'venue': 'Science of Computer Programming', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,103
Abstract-I kontinuerlig integration, en snäv integration av test fall prioritering tekniker och fel-localization tekniker kan både exponera fel snabbare och lokalisera fel mer effektivt. Statistiska fellokaliseringstekniker använder den exekveringsinformation som samlats in under testningen för att lokalisera fel. Utföra en liten bråkdel av en prioriterad testsvit minskar kostnaden för testning, och ändå kan den efterföljande fel lokaliseringen lida. I detta dokument presenteras den första empiriska studien för att undersöka effekterna av prioriteringen av testfall på fellokaliseringens effektivitet. Bland många intressanta empiriska resultat finner vi att täckningsbaserade tekniker och slumpmässig beställning kan vara effektivare än distributionsbaserade tekniker för att stödja statistisk fellokalisering. Dessutom kan integrationen av slumpmässig beställning av testfallsprioritering och statistisk fellokalisering vara effektiv när det gäller att snabbt och ekonomiskt lokalisera fel.
Våra tidigare arbeten REF ) studerade problemet med hur prioriteringstekniker påverkar fellokaliseringstekniker i en kontinuerlig integrationsmiljö.
16,549,991
How Well Do Test Case Prioritization Techniques Support Statistical Fault Localization
{'venue': '2009 33rd Annual IEEE International Computer Software and Applications Conference', 'journal': '2009 33rd Annual IEEE International Computer Software and Applications Conference', 'mag_field_of_study': ['Computer Science']}
83,104
Sammanfattning I detta dokument föreslår vi en ny rigid rörelsesegmenteringsalgoritm kallad randomiserad röstning (RV)
Nyligen, Jung et al. I REF föreslogs en ny algoritm för rigid rörelsesegmentering baserad på den randomiserade röstningen (RV).
10,772,442
Rigid Motion Segmentation Using Randomized Voting
{'venue': '2014 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2014 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
83,105
Abstrakt. Lärda 3D-representationer av mänskliga ansikten är användbara för datorseende problem såsom 3D-ansiktsspårning och rekonstruktion från bilder, liksom grafik program som karaktärsgenerering och animation. Traditionella modeller lär sig en latent representation av ett ansikte med linjära subrymder eller högre-order tensor generaliseringar. På grund av denna linjäritet kan de inte fånga extrema deformationer och icke-linjära uttryck. För att ta itu med detta, introducerar vi en mångsidig modell som lär sig en icke-linjär representation av ett ansikte med hjälp av spektral konvolutioner på en mesh yta. Vi inför provtagning av maskor som möjliggör en hierarkisk mesh representation som fångar icke-linjära variationer i form och uttryck i flera skalor inom modellen. I en varierad miljö, våra modeller prov olika realistiska 3D ansikten från en multivariat Gaussian distribution. Våra träningsdata består av 20,466 maskor av extrema uttryck som fångas upp över 12 olika ämnen. Trots begränsade träningsdata överträffar vår utbildade modell toppmoderna ansiktsmodeller med 50% lägre återuppbyggnadsfel, samtidigt som 75% färre parametrar används. Vi visar att genom att ersätta uttrycket utrymme av en befintlig state-of-theart ansikte modell med vår modell, uppnår en lägre återuppbyggnad fel. Vår data, modell och kod finns på http://coma.is.tue.mpg.de/.
Ranjan m.fl. REF introducerar en convolution- al mesh autoencoder för att lära sig icke-linjära variationer i form och uttryck.
50,790,278
Generating 3D faces using Convolutional Mesh Autoencoders
{'venue': 'European Conference on Computer Vision 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,106
I detta dokument studeras känsloanalys från användargenererat innehåll på webben. I synnerhet fokuserar den på gruva yttranden från jämförande meningar, dvs. att avgöra vilka enheter i en jämförelse föredras av dess författare. En typisk jämförande mening jämför två eller flera enheter. Till exempel, meningen, "bildkvaliteten på Camera X är bättre än den för Camera Y", jämför två enheter "Camera X" och "Camera Y" med avseende på deras bildkvalitet. Det är tydligt att "Camera X" är den föredragna enheten. Befintlig forskning har studerat problemet med att utvinna vissa nyckelelement i en jämförande mening. Det finns dock fortfarande ingen studie av gruva åsikter från jämförande meningar, dvs. att identifiera föredragna enheter av författaren. I detta dokument studeras detta problem och föreslås en teknik för att lösa problemet. Våra experiment med jämförande meningar från produktrecensioner och foruminlägg visar att tillvägagångssättet är effektivt.
REF tar upp problemet med att hitta yttranden från jämförande meningar.
8,985,962
Mining Opinions in Comparative Sentences
{'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,107
Abstrakt. Motiverade av representationen av biometriska och multimedia objekt, anser vi problemet med att dölja bullriga punktuppsättningar med hjälp av en säker skiss. En punktuppsättning X består av s punkter från en d-dimensionell diskret domän [0, N −1] d. Under tillåtna ljud, för varje punkt x1,.. x d X, varje xi kan störas av ett värde på högst δ. Dessutom, som mest t punkter i X kan ersättas med andra punkter i [0, N − 1] d. Med tanke på en original X, vill vi beräkna en säker skiss P. En känd metod konstruerar skissen genom att lägga till en uppsättning slumpmässiga punkter R, och beskrivningen av (X på R) fungerar som en del av skissen. Men beroendena bland de slumpmässiga punkter är svåra att analysera, och det finns ingen känd icke-trivial bunden på entropi förlust. I detta dokument ger vi först en allmän metod för att generera R och visar att entropiförlusten av (X på R) är som mest s(d log till + d + 0.443), där till = 2δ + 1. Vi ger därefter förbättrade system för d = 1, och specialfall för d = 2. Sådana förbättringar uppnås genom föravrundning, och noggrann uppdelning av domänerna i celler. Det är möjligt att göra vår skiss kort, och undvika att använda slumpmässighet under konstruktion. Vi ger också en metod i d = 1 för att visa att, med hjälp av storleken på R som säkerhetsåtgärden skulle vara vilseledande.
Säkra skissscheman för punktuppsättningar i Ref motiveras av den typiska likhetsmått som används för fingeravtryck, där varje mall består av en uppsättning punkter i 2-D-utrymme och likhetsmåttet inte definierar ett metriska utrymme.
2,005,681
Hiding secret points amidst chaff
{'venue': 'in Eurocrypt', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,108
Abstrakt. Med tanke på de ständigt växande tillgängliga multimediedata är det ett utmanande problem att automatiskt kommentera multimedieinnehåll med de känslor som förväntas uppstå hos användarna. För att lösa detta problem syftar det framväxande forskningsfältet för videoaffektiv analys till att utnyttja mänskliga känslor. Inom detta område där det ännu inte har uppstått någon dominerande funktionsrepresentation, är valet av diskriminerande funktioner för en effektiv representation av videosegment en nyckelfråga när det gäller att utforma algoritmer för videoaffektiv innehållsanalys. De flesta befintliga affektiva innehållsanalysmetoder använder antingen lågnivå-audiovisuella funktioner eller genererar handgjorda representationer på högre nivå baserat på dessa lågnivåfunktioner. I detta arbete föreslår vi att använda djupt lärande metoder, särskilt konvolutionella neurala nätverk (CNN), för att lära sig mellannivå representationer från automatiskt extraherade låg nivå funktioner. Vi utnyttjar ljud och visuella modalitet av videor genom att använda Mel-Frequency Cepstral Koefficienter (MFCC) och färgvärden i RGB utrymme för att bygga högre nivå ljud och visuella representationer. Vi använder de inlärda representationerna för den affektiva klassificeringen av musikvideoklipp. Vi väljer multi-klass stöd vektor maskiner (SVMs) för att klassificera videoklipp i fyra affektiva kategorier som representerar de fyra kvadranterna av Valence-Areousal (VA) utrymme. Resultat på en delmängd av DEAP-datasetet (på 76 musikvideoklipp) visar att en betydande förbättring uppnås när representationer på högre nivå används i stället för funktioner på låg nivå, för videoaffektiv innehållsanalys.
Acar m.fl. REF byggde mellannivå representationer från Mel-Frequency Cepstral Koefficienter och färgvärden med hjälp av konvolutionella neurala nätverk, avslöjar en förbättrad prestanda på affektiv klassificering av videoklipp.
13,233,536
Understanding Affective Content of Music Videos through Learned Representations
{'venue': 'MMM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,109
Den samlade rörelsen hos en fågelflock, en hjord landdjur eller en fiskskola är en vacker och välbekant del av naturen. Men denna typ av komplex rörelse ses sällan i datoranimering. I detta dokument utforskas ett tillvägagångssätt baserat på simulering som ett alternativ till att skriptera varje fågels stigar individuellt. Den simulerade flocken är en utveckling av ett partikelsystem, där de simulerade fåglarna är partiklarna. Den simulerade flockens samlade rörelse skapas av en distribuerad beteendemodell som liknar den som fungerar i en naturlig flock; fåglarna väljer sin egen kurs. Varje simulerad fågel genomförs som en oberoende aktör som navigerar enligt sin lokala uppfattning om den dynamiska miljön, lagarna i simulerad fysik som styr dess rörelse, och en uppsättning beteenden programmerade in i den av "animatorn". Den simulerade flockens samlade rörelse är resultatet av den täta interaktionen mellan de relativt enkla beteendena hos de enskilda simulerade fåglarna.
Reynolds tidiga arbete utforskar ett tillvägagångssätt för att simulera fågel flockning genom att skapa en distribuerad beteendemodell som resulterar i artificiella agenter beteende i stort sett som naturlig flockning REF.
546,350
Flocks, herds and schools: A distributed behavioral model
{'venue': "SIGGRAPH '87", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Geography']}
83,110
I många applikationer skickar lokala eller fjärrsensorer in strömmar av data, och systemet behöver övervaka strömmarna för att upptäcka relevanta händelser/mönster och leverera omedelbar reaktion på motsvarande sätt. Ett viktigt scenario är att den inkommande strömmen är en kontinuerligt bilagd tidsserie, och mönstren är tidsserier i en databas. Vid varje tidpunkt när ett nytt värde anländer (kallas tidsposition) måste systemet, från databasen, hitta närmaste eller nära grannar i inkommande tidsserier fram till tidspositionen. Detta papper angriper problemet genom att använda Fast Fourier Transform (FFT) för att effektivt hitta kors korrelationer av tidsserier, som ger, i ett batch-läge, närmaste och nära grannar av inkommande tidsserier på många tid positioner. För att dra nytta av denna sats bearbetning för att uppnå snabb svarstid, använder detta papper förutsägelser metoder för att förutsäga framtida värden. FFT används för att beräkna korskorrelationerna för den förutsagda serien (med de värden som redan har anlänt) och databasmönstren, och för att få förutsagda avstånd mellan inkommande tidsserier vid många framtida positioner och databasmönster. När det faktiska datavärdet anländer, används förutsägelsen fel tillsammans med de förutsedda avstånden för att filtrera bort mönster som inte är möjliga att vara närmaste eller nära grannar, vilket ger snabba svar. Experiment visar att med rimliga förutsägelser fel, prestandavinsten är betydande.
I REF används förutsägelser för att dra nytta av satsbearbetning.
946,102
Continually evaluating similarity-based pattern queries on a streaming time series
{'venue': "SIGMOD '02", 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,111
Bakgrund: Massiv textutvinning av den biologiska litteraturen ger stora löften om att relatera olikartad information och upptäcka ny kunskap. Men disambiguation av gensymboler är en stor flaskhals. Vi utvecklade en enkel tesaurusbaserad disambigeringsalgoritm som kan fungera med väldigt lite träningsdata. Thesaurusen innehåller information från fem humangenetiska databaser och MeSH. Omfattningen av homonymproblemet för mänskliga gensymboler visas vara betydande (33% av generna i vår kombinerade tesaurus hade en eller flera tvetydiga symboler), inte bara för att en symbol kan hänvisa till flera gener, men också för att en gensymbol kan ha många icke-gen betydelser. En testuppsättning på 52,529 Medline abstracts, innehållande 690 tvetydiga mänskliga gensymboler tagna från OMIM, skapades automatiskt. Den totala noggrannheten hos disambiguationsalgoritmen var upp till 92,7% på testuppsättningen. Olikheterna i mänskliga gensymboler är betydande, inte bara för att en symbol kan beteckna flera gener utan särskilt för att många symboler har andra, icke-gena betydelser. Det föreslagna disambiguation tillvägagångssätt löser de flesta tvetydigheter i vår testuppsättning med hög noggrannhet, inklusive viktiga gen / inte en gen beslut. Algoritmen är snabb och skalbar, vilket möjliggör gensymbolisk disambigering i massiva tillämpningar för textbrytning.
REF uppnår 92,5% noggrannhet på mänskliga gensymboler.
632,308
Thesaurus-based disambiguation of gene symbols
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
83,112
Abstrakt. Valet av kärnan funktion är avgörande för de flesta tillämpningar av stöd vektor maskiner. I detta dokument visar vi dock att term-frekvensomvandlingar i fråga om textklassificering har en större inverkan på SVM:s prestanda än själva kärnan. Vi diskuterar betydelsen av vikter (t.ex. dokumentfrekvens och redundans), som ännu inte är helt förstådd mot bakgrund av modellens komplexitet och beräkningskostnader, och vi visar att tidskrävande lemmatisering eller reversering kan undvikas även när man klassificerar ett mycket böjligt språk som tyska.
Leopold m.fl. REF visar att term-frekvenstransformationer, när det gäller textklassificering, har en större inverkan på SVM:s prestanda än själva kärnan.
37,723,864
Text Categorization with Support Vector Machines. How to Represent Texts in Input Space?
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']}
83,113
Sammanfattning av denna webbsida: Broövervakning och underhåll är en dyr men viktig uppgift när det gäller att upprätthålla en säker nationell transportinfrastruktur. Traditionella övervakningsmetoder använder regelbundna okulärbesiktningar av broar och kräver ofta att inspektörerna reser till bryggan och bestämmer brons försämringsnivå. Automatisering av denna process kan leda till stora penningbesparingar och kan leda till mer frekventa inspektionscykler. En aspekt av denna automatisering är upptäckt av sprickor och försämring av en bro. Detta papper ger en jämförelse av effektiviteten av fyra crack-detektion tekniker: snabb Haar transform påfrestande, snabb Fourier transform, Sobel, och Canny. Dessa imaging edge-detection algoritmer implementerades i MatLab och simulerades med hjälp av ett urval av 50 betongbro bilder på 25 med sprickor och 25 utan. Resultaten visar att FHT var betydligt mer pålitlig än de andra tre kantdetekteringstekniker för att identifiera sprickor.
Fyra metoder för att upptäcka sprickor i betongbroar jämförs i REF: Sobel och Canny edge detektorer, Fourier transform, och Haar wavelet transform.
109,838,398
Analysis of Edge-Detection Techniques for Crack Identification in Bridges
{'venue': None, 'journal': 'Journal of Computing in Civil Engineering', 'mag_field_of_study': ['Engineering']}
83,114
Abstract-Sharing live multimedia innehåll blir allt populärare bland mobila användare. I den här artikeln studerar vi problemet med att optimera videokvaliteten i ett sådant scenario med skalbar videokodning (SVC) och bitet videoinnehåll. Vi överväger att endast använda vanliga statslösa HTTP-servrar som inte behöver utföra ytterligare bearbetning av videoinnehållet. Vårt viktigaste bidrag är att ge nära till optimala algoritmer för schemaläggning video bit uppladdning för flera kunder med olika visning förseningar. Med tanke på en sådan uppsättning kunder, problemet är att bestämma vilka bitar att ladda upp och i vilken ordning att ladda upp dem så att kvalitetsfördröjningen kan vara optimalt balanserad. Vi visar med hjälp av simuleringar att de föreslagna algoritmerna kan uppnå betydligt bättre prestanda än naiva lösningar i praktiska fall. Speciellt den heuristiska-baserade giriga algoritmen är en bra kandidat för distribution på mobila enheter eftersom den inte är beräkningsintensiv men fortfarande levererar i de flesta fall videokvalitet i par jämfört med den mer komplexa lokala optimeringsalgoritmen. Vi visar också att genom att använda kortare videosegment och kunna förutsäga bandbredds- och videobitars egenskaper förbättras den levererade videokvaliteten i vissa fall.
Siekkinen m.fl. "ge nära till optimala algoritmer för schemaläggning video bit uppladdning för flera kunder som har olika tittarförseningar" REF.
15,506,288
Optimized Upload Strategies for Live Scalable Video Transmission from Mobile Devices
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
83,115
Konstruktiv induktion är processen att ändra representationen av exempel genom att skapa nya attribut från befintliga attribut. I klassiker är målet med konstruktiv induktion att få en representation som underlättar att lära sig en konceptbeskrivning av ett visst inlärningssystem. Vanligtvis är de nya attributen Booleska eller aritmetiska kombinationer av befintliga attribut och de läralgoritmer som används är beslutsträd eller regelinlärare. Vi beskriver konstruktionen av nya attribut som är den kartesiska produkten av befintliga attribut. Vi anser att operatörens eekter på en Bayesian classier är en närmaste grannalgoritm.
BSEJ REF är en metod för att konstruera nya nominella attribut med hjälp av kartesiska produkter med befintliga nominella attribut.
6,320,149
Constructive Induction of Cartesian Product Attributes
{'venue': 'Information, Statistics and Induction in Science', 'journal': None, 'mag_field_of_study': ['Mathematics']}
83,116
Abstract-Cooperative localization (även känd som sensor nätverk lokalisering) med hjälp av mottagna signalstyrka (RSS) mätningar när källan överför krafter är olika och okänd undersöks. Tidigare studier baserades på antagandet att överföringskrafterna hos källnoder är desamma och fullständigt kända, vilket inte är praktiskt. I detta dokument betraktas källöverföringsbefogenheterna som störande parametrar och uppskattas tillsammans med källplatserna. Motsvarande Cramér-Rao nedre gräns (CRRB) av problemet härleds. För att hitta den maximala sannolikheten (ML) estimator, är det nödvändigt att lösa en icke-linjär och icke konvex optimering problem, vilket är computationally komplex. För att undvika svårigheten att lösa ML estimator, härleder vi en ny semidefinit programmering (SDP) avslappningsteknik genom att omvandla ML minimering problem till ett konvext problem som kan lösas effektivt. Algoritmen kräver endast en uppskattning av banförlustexponenten (PLE). Vi utgår från att perfekt kunskap om PLE finns tillgänglig, men sedan undersöker vi effekten av ofullständig kunskap om PLE på den föreslagna SDP-algoritmen. De komplexa analyserna av de föreslagna algoritmerna studeras också i detalj. Datorsimuleringar som visar den föreslagna SDP-algoritmens anmärkningsvärda prestanda presenteras.
Dessutom undersökte författarna i REF effekten av bristfällig kunskap om PLE på utförandet av SDP algoritmen och använde en iterativ procedur för att lösa problemet när P T och PLE samtidigt är okända.
16,591,113
Cooperative Received Signal Strength-Based Sensor Localization With Unknown Transmit Powers
{'venue': 'IEEE Transactions on Signal Processing', 'journal': 'IEEE Transactions on Signal Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,117
Abstract-People upptäckt är en nyckelfråga för robotar och intelligenta system dela ett utrymme med människor. Tidigare verk har använt kameror och 2D- eller 3D-seriesökare för denna uppgift. I detta dokument presenterar vi en ny metod för att upptäcka människor när det gäller RGB-D-data. Vi hämtar inspiration från Histogram of Oriented Gradients (HOG) detektor för att utforma en robust metod för att upptäcka människor i tät djupdata, som kallas Histogram of Oriented Deephs (HOD). HOD kodar riktningen för djupförändringar lokalt och förlitar sig på en djupinformerad skalrymdssökning som leder till en 3-faldig acceleration av detektionsprocessen. Vi föreslår då Combo-HOD, en RGB-D-detektor som probabilistiskt kombinerar HOD och HOG. Experimenten inkluderar en omfattande jämförelse med flera alternativa detektionsmetoder inklusive visuell HOG, flera varianter av HOD, en geometrisk persondetektor för 3D-punktmoln och en Haar-baserad AdaBoost-detektor. Med en lika felfrekvens på 85% i ett område upp till 8m, visar resultaten robustheten hos HOD och Combo-HOD på en verklig datamängd som samlats in med en Kinect-sensor i en befolkad inomhusmiljö.
Spinello och Arras REF föreslog en ny detekteringsalgoritm för människor som heter Histogram of Orientated Depths (HOD), inspirerad av HOG-funktioner men med hjälp av djupgradienter istället.
9,394,474
People detection in RGB-D data
{'venue': '2011 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2011 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']}
83,118
Abstrakt. Att utforska en okänd miljö med flera robotar kräver en effektiv samordningsmetod för att minimera den totala varaktigheten. En standardmetod för att upptäcka nya områden är att tilldela robotar gränser (gränser mellan outforskade och utforskade tillgängliga områden). I detta sammanhang är gränsfördelningsmetoden av största vikt. Detta dokument introducerar en decentraliserad och beräkningseffektiv gränsallokeringsmetod som gynnar en välbalanserad rumslig fördelning av robotar i miljön. För detta ändamål utvärderar varje robot sin relativa rang bland de andra robotarna när det gäller resavstånd till varje gräns. Därför tilldelas robotar den gräns för vilken de har den lägsta rangen. För att utvärdera dessa kriterier beräknas en vågfrontsutbredning från varje gräns vilket ger ett intressant alternativ till vägplanering från robot till gräns. Jämförelser med befintliga metoder i datoriserad simulering och på riktiga robotar visade giltigheten och effektiviteten i vår algoritm.
I Ref, den föreslagna decentraliserade metoden fördelar gränspunkter baserat på en rang bland lagkamrater, när det gäller resavstånd till varje gräns, för att få en välbalanserad rumslig fördelning av robotar i miljön.
14,152,319
MinPos : A Novel Frontier Allocation Algorithm for Multirobot Exploration
{'venue': 'in "ICIRA - 5th International Conference on Intelligent Robotics and Applications - 2012', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']}
83,119
Vi introducerar ett nytt system för att träna binära konvolutionella neurala nätverk (CNN) -CNNs med vikter och aktiveringar begränsade till {-1,+1} vid körtid. Det har varit känt att använda binära vikter och aktiveringar drastiskt minska minne storlek och åtkomster, och kan ersätta aritmetiska operationer med effektivare bitvis verksamhet, vilket leder till mycket snabbare testtid inferens och lägre strömförbrukning. Men tidigare arbeten på binarizing CNNs resulterar vanligtvis i allvarlig förutsägelse noggrannhet nedbrytning. I detta dokument behandlar vi denna fråga med två viktiga innovationer: (1) approximering full precision vikter med den linjära kombinationen av flera binära vikt baser; (2) med flera binära aktiveringar för att lindra informationsförlust. Implementeringen av den resulterande binära CNN, betecknad som ABC-Net, visas för att uppnå mycket närmare prestanda till sin full precision motsvarighet, och även nå jämförbara förutsägelse noggrannhet på ImageNet och skogsspår dataset, med tanke på lämpliga binära vikt baser och aktiveringar.
Dessutom använder vissa nätverk som i REF den linjära kombinationen av binära värden för att approximera full precisionsvikter och aktiveringsvärden.
10,533,533
Towards Accurate Binary Convolutional Neural Network
{'venue': 'NIPS 2017', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
83,120
Abstrakt. Med införandet av Java 5.0 har typsystemet utökats med parameteriserade typer, typvariabler, typtermer och jokertecken. Som ett resultat kan mycket komplexa typer uppstå. Uttrycket Vector <? Förlänger Vector <AbstractList <Integer>>>> är till exempel en korrekt typ i Java 5.0. I detta papper presenterar vi en typ enande algoritm för Java 5.0 typ termer. Algoritmen förenar typtermer, som är i subtypsförhållande. För detta definierar vi Java 5.0 typ termer och dess subtyping förhållande, formellt. Eftersom Java 5.0 tillåter jokertecken som exempel på generiska typer innehåller undertypningen oändliga kedjor. Vi visar att typ enandet fortfarande är finansiellt. Vi ger en typ enande algoritm, som beräknar den ändliga uppsättningen allmänna unifiers.
Den typ endräktsalgoritm som presenteras av REF kan användas för Java type inference.
1,259,075
Java type unification with wildcards
{'venue': 'In Proceedings of 17th International Conference on Applications of Declarative Programming and Knowledge Management and 21st Workshop on (Constraint) Logic Programming', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,121
Abstract-This paper tar upp uppgiften att utforma en modulär neural nätverk arkitektur som gemensamt löser olika uppgifter. Som exempel använder vi uppgifterna djupuppskattning och semantisk segmentering med en enda RGB-bild. Huvudfokus i detta arbete är att analysera det tvärmodala inflytandet mellan djup- och semantiska förutsägelsekartor på deras gemensamma förfining. Medan de flesta tidigare arbeten enbart fokuserar på att mäta förbättringar av noggrannheten, föreslår vi ett sätt att kvantifiera påverkan av korsmodalitet. Vi visar att det finns ett samband mellan slutlig noggrannhet och påverkan mellan olika transportsätt, även om det inte är en enkel linjär sådan. En större påverkan mellan olika transportsätt innebär därför inte nödvändigtvis att noggrannheten förbättras. Vi finner att en fördelaktig balans mellan påverkan mellan olika transportsätt kan uppnås genom nätverksarkitektur och antaganden om att detta förhållande kan användas för att förstå olika val av nätverksdesign. I detta syfte föreslår vi en Convolutional Neural Network (CNN) arkitektur som förenar tillståndet för de senaste resultaten för djupuppskattning och semantisk märkning. Genom att balansera crossmodalitetens påverkan mellan djup- och semantiska förutsägelser uppnår vi förbättrade resultat för båda uppgifterna med hjälp av NYU-Depth v2-riktmärket.
I arbetet REF analyserade författarna cross-modality influenser mellan semantisk segmentering och djupförutsägelse och konstruerade sedan en nätverksarkitektur för att balansera cross-modality influenser och uppnå förbättrade prestanda.
6,701,642
Analyzing Modular CNN Architectures for Joint Depth Prediction and Semantic Segmentation
{'venue': '2017 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2017 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Computer Science']}
83,122
Vi beskriver designen av ett system av kompakta, trådlösa sensormoduler avsedda att fånga uttrycksfull rörelse när de används vid handleder och vrister av en dansare. Sensorerna bildar ett höghastighets-RF-nätverk riktat mot realtids datainsamling från flera enheter samtidigt, vilket gör det möjligt för en liten dansensemble att bli ett kollektivt gränssnitt för musikkontroll. Varje sensornod innehåller en 6-axlig tröghetsmätningsenhet (IMU) bestående av tre ortogonala gyroskop och accelerometrar för att fånga den lokala dynamiken, samt en kapacitiv sensor för att mäta närheten mellan nod och nod. Noderna kan också förstärkas med andra digitala eller analoga sensorer. Detta dokument beskriver applikationsmål, presenterar prototypen hårdvarudesign, introducerar koncept för funktionsextraktion och tolkning, och diskuterar tidiga testresultat.
Sensemble-systemet REF är avsett att fånga en dansensembles uttrycksfulla rörelse.
2,839,409
Sensemble: A Wireless, Compact, Multi-User Sensor System for Interactive Dance
{'venue': 'NIME', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,123
Vi undersöker problemet med budgeterat maskininlärning, där inlärningsalgoritmen har fri tillgång till utbildningsexempelens etiketter men måste betala för varje attribut som anges. Denna inlärningsmodell är lämplig på många områden, inklusive medicinska tillämpningar. Vi presenterar nya algoritmer för att välja vilka attribut för inköp av vilka exempel i den budgeterade inlärningsmodellen som baseras på algoritmer för multi-armad bandit problem. Alla våra tillvägagångssätt överträffade teknikens nuvarande tillstånd. Dessutom presenterar vi ett nytt sätt att välja ett exempel att köpa efter att attributet har valts, istället för att välja ett exempel enhetligt slumpmässigt, vilket vanligtvis görs. Vår nya urvalsmetod förbättrade prestandan för alla algoritmer vi testade, både våra och de i litteraturen.
REF använde tekniker från det flerarmade banditproblemet.
11,782,173
Bandit-Based Algorithms for Budgeted Learning
{'venue': 'Seventh IEEE International Conference on Data Mining (ICDM 2007)', 'journal': 'Seventh IEEE International Conference on Data Mining (ICDM 2007)', 'mag_field_of_study': ['Computer Science']}
83,124
Det fordonsspecifika ad hoc-nätet (VANET) är en viktig teknik som möjliggör utbyggnad av det intelligenta transportsystemet (ITS), vilket förbättrar trafiksäkerheten och effektiviteten. För effektiv meddelandeleverans i VANET, är det önskvärt att ge en tillförlitlig och stabil VANET routing protokoll. Men VANET routing är utmanande eftersom VANET i grunden skiljer sig från konventionella trådlösa ad hoc-nätverk; fordon rör sig snabbt, och nätverket topologin förändras snabbt, vilket orsakar intermittenta och dynamiska länkanslutningar. I detta dokument föreslår vi ett VANET routingprotokoll som bygger på information om trafiktätheten i realtid för att ge snabb och tillförlitlig signalöverföring så att den kan anpassas till den dynamiska stadsmiljön. I den föreslagna mekanismen beräknar varje fordon trafiktätheten i realtid för den väg till vilken den hör från de signalsignaler som skickas av fordon på motsatt körfält och dess väginformationstabell. Med hjälp av vägtrafiktäthetsinformationen som vägmätare fastställer varje fordon en tillförlitlig väg för paketleverans. Vi jämför vår föreslagna mekanism med den välkända GPSR via NS-2-baserade simuleringar och visar att vår mekanism överträffar GPSR både i fråga om leveransframgång och routing overhead.
Det stabila routingprotokollet för fordon i stadsmiljö REF föreslogs som ett VANET routingprotokoll som tar hänsyn till information om trafiktäthet i realtid.
38,011,753
A Stable Routing Protocol for Vehicles in Urban Environments
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
83,125
Lokalisering är en grundläggande verksamhet i inobile och seIf-korlfgiring iienuorks såsom sensornätverk och mobila ad hoc riemorks. T.ex. är sensorns placering kritisk för datatolkning. Befintlig forskning fokuserar på localization mechaizisms: algoritmer och infrastruktur som utformats för att göra det möjligt för sensorerna att detemtinera sin plats. I en mobil em&oinzerir åberopas den underliggande lokaliseringen nzeclmnisni niust upprepade gånger till rlzaintain accerrate location irlfor7nation. Vi föreslår och undersöker ndaptive och prediktiva protokoll som corztrol frekvensen av localization baserat på sensor rörlighet beteende för att minska den energi som krävs för lokalisering samtidigt begränsa lokalisering fel Dessutom, vi elaluaie energi-accuracy utstrålning. Orrr resultat indikerar att de föreslagna protokollen minskar lokaliseringsenergin avsevärt utan sakrijcirzg acairacy.
Tilak m.fl. REF studerar tidsintervall för sändning av mobil beacon och föreslår en adaptiv och prediktiv protokoll som styr frekvensen av lokalisering baserat på sensor rörlighet beteende.
17,355,502
Dynamic localization control for mobile sensor networks
{'venue': 'PCCC 2005. 24th IEEE International Performance, Computing, and Communications Conference, 2005.', 'journal': 'PCCC 2005. 24th IEEE International Performance, Computing, and Communications Conference, 2005.', 'mag_field_of_study': ['Computer Science']}
83,126
Abstract-Med priset på trådlös sensor teknik minskar snabbt kan vi förvänta oss ett stort antal autonoma sensornätverk som är utplacerade inom en snar framtid. Dessa sensornätverk kommer vanligtvis inte att förbli isolerade, men behovet av att koppla samman dem på nätverksnivå för att möjliggöra integrerad databehandling kommer att uppstå och därmed förverkliga visionen om en global "Sensor Internet". Detta kräver ett flexibelt mellanprogram som tar bort från de underliggande, heterogena sensornätverksteknologierna och stöder snabb och enkel installation och tillägg av nya plattformar, underlättar effektiv distribuerad frågebehandling och kombination av sensordata, ger stöd för sensorrörlighet, och möjliggör dynamisk anpassning av systemets konfiguration under körtiden med minimal (nollprogrammering) ansträngning. Detta dokument beskriver Global Sensor Networks (GSN) middleware som uppfyller dessa mål. Vi presenterar GSN:s konceptuella modell, abstraktioner och arkitektur, och demonstrerar effektiviteten i implementeringen genom experiment med typiska applikationer med hög belastning. Genomförandet av GSN finns tillgängligt på http://gsn.sourceforge.net/.
GSN REF är en plattform som syftar till att tillhandahålla flexibel middleware för att hantera utmaningarna med sensordataintegration och distribuerad frågebehandling.
5,664,736
Infrastructure for Data Processing in Large-Scale Interconnected Sensor Networks
{'venue': '2007 International Conference on Mobile Data Management', 'journal': '2007 International Conference on Mobile Data Management', 'mag_field_of_study': ['Computer Science']}
83,127
En låggradig utbildningsram för omvandling av subrymdskluster och klassificering föreslås här. Många högdimensionella data, såsom ansiktsbilder och rörelsesekvenser, ligger ungefär i en förening av lågdimensionella subrymder. Motsvarande subrymdsklusterproblem har studerats ingående i litteraturen för att dela upp sådana högdimensionella data i kluster som motsvarar deras underliggande lågdimensionella subrymder. Lågdimensionella inbyggda strukturer kränks dock ofta för verkliga observationer, eftersom de kan korrumperas av fel eller avvika från idealiska modeller. Vi föreslår att vi tar itu med detta genom att lära oss en linjär omvandling av subrymder genom att använda nukleär norm som kriterier för modellering och optimering. Den lärda linjära omvandlingen återställer en lågvärdig struktur för data från samma subrymd och tvingar samtidigt fram en maximalt separerad struktur för data från olika subrymder. På så sätt minskar vi variationerna inom subrymderna och ökar separationen mellan subrymderna för en mer robust subrymdsklustring. Detta föreslagna robusta ramverk för subrymdskluster förbättrar avsevärt prestandan hos befintliga subrymdsklustermetoder. Grundläggande teoretiska resultat här presenteras hjälper till att ytterligare stödja den underliggande ramen. För att utnyttja de transformerade subrymdernas lågvärdiga strukturer introducerar vi ytterligare en snabb subrymdsklusterteknik som effektivt kombinerar robust PCA med sparsam modellering. När klassetiketter är närvarande på träningsstadiet, visar vi detta lågvärdiga transformationsramverk också avsevärt förbättrar klassificeringsprestandan. Omfattande experiment med hjälp av offentliga datauppsättningar presenteras, vilket visar att det föreslagna tillvägagångssättet avsevärt överträffar de senaste metoderna för subrymdsklustring och klassificering. Den lärda lågkostnadstransformeringen är också tillämplig på andra klassificeringsramar.
I REF, en linjär omvandling
287,318
Learning Transformations for Clustering and Classification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
83,128
Abstract-This paper presenterar en metod för självkalibrering av olika interna kameraparametrar som bygger på kvasi-affin rekonstruktion. I ett stratifierat tillvägagångssätt för självkalibrering erhålls en projektiv rekonstruktion först och detta förfinas successivt först till en afffin och sedan till en euklideisk återuppbyggnad. Man har observerat att det svåra steget är att få den affina rekonstruktionen, eller motsvarande för att lokalisera planet i oändlighet i den projektiva koordinatramen. Så, en kvasi-affin rekonstruktion erhålls först genom bildsekvenser, då kan vi få det oändliga planet i kvasi-affin rymden, och motsvarande affin rekonstruktion. Sedan den oändliga homografi matrisen kan beräknas genom affin rekonstruktion, och sedan använda den oändliga homografi matris och begränsningar av bilden av absolut konik för att beräkna kamerans interna parametrar matris, och vidare för att mäta den metriska rrekonstruktion. Denna metod kräver inte en speciell scen begränsningar (såsom rappell, vinkelrät) information, och även kameran rörelseinformation (såsom ren översättning eller ortogonal rörelse), för att uppnå målet självkalibrering. Teoretikanalysen och experimenten med verkliga data visar att denna självkalibreringsmetod är tillgänglig, stabil och robust.
Författarna till artikeln REF använder vissa begränsningar på bilden av den absoluta konen.
2,374,284
Self-calibration of Varying Internal Camera Parameters Algorithm Based on Quasi-affine Reconstruction
{'venue': 'JCP', 'journal': 'JCP', 'mag_field_of_study': ['Computer Science']}
83,129
Abstract-Community detekteringsalgoritmer är grundläggande verktyg som gör att vi kan avslöja organisatoriska principer i nätverk. När man upptäcker samhällen finns det två möjliga informationskällor som man kan använda: nätverksstrukturen och nodernas egenskaper och attribut. Även om samhällen bildar runt noder som har gemensamma kanter och gemensamma attribut, typiskt, algoritmer har bara fokuserat på en av dessa två datamodaliteter: gemenskapliga detektionsalgoritmer fokuserar traditionellt bara på nätverksstrukturen, medan kluster algoritmer mestadels endast betraktar nodattribut. I detta dokument utvecklar vi Communities from Edge Structure and Node Attributes (CESNA), en exakt och skalbar algoritm för att upptäcka överlappande samhällen i nätverk med nodattribut. CESNA modellerar statistiskt samspelet mellan nätverksstrukturen och nodattributen, vilket leder till mer exakt detektering i samhället samt förbättrad robusthet i närvaro av buller i nätverksstrukturen. CESNA har en linjär drifttid i nätverksstorleken och kan bearbeta nätverk i en storleksordning som är större än jämförbara tillvägagångssätt. Slutligen hjälper CESNA också till med tolkningen av upptäckta samhällen genom att hitta relevanta nodattribut för varje gemenskap.
REF kombinerar också grafnoden attribut med grafkanten strukturer för community upptäckt.
2,760,873
Community Detection in Networks with Node Attributes
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']}
83,130
Bakgrund: Cincinnati Children's Hospital Medical Center (CCHMC) har byggt den ursprungliga Natural Language Processing (NLP) komponent för att extrahera läkemedel med deras motsvarande medicinska tillstånd (Indikationer, Kontraindikationer, Overdosage, och biverkningar) som triples av läkemedel-relaterad information ([(1) läkemedelsnamn]-[(2) medicinskt tillstånd]-[(3) LOINC avsnitt rubrik]) för ett intelligent databassystem, för att förbättra patientens säkerhet och kvaliteten på hälso-och sjukvård. Food and Drug Administrations (FDA) läkemedelsetiketter används för att visa genomförbarheten av att bygga tripletter som en intelligent databassystem uppgift. Metoder: Detta papper diskuterar en hybrid NLP-system, kallad AutoMCExtractor, för att samla medicinska tillstånd (inklusive sjukdom / sjukdom och tecken / symptom) från läkemedelsetiketter som publiceras av FDA. Totalt användes 6 611 medicinska tillstånd i en manuellt annoterad guldstandard för systemutvärderingen. Förbehandlingssteget extraherade den enkla texten från XML-filen och upptäckte åtta relaterade LOINC-sektioner (t.ex. Biverkningar, varningar och försiktighetsåtgärder) för medicinskt tillstånd extraktion. Villkorliga slumpmässiga fält (CRF) klassificerare, tränade på symboliska, språkliga och semantiska funktioner, användes sedan för medicinskt tillstånd extraktion. Slutligen korrigerade lexikonbaserade efterbehandlingar gränsdetekteringsfel för CRF-steget. Vi utvärderade AutoMCExtractor på manuellt annoterade FDA läkemedelsetiketter och rapportera resultaten på både token- och spännnivåer. Resultat: Precision, recall och F-mått var 0,90, 0,81 respektive 0,85, för spännnivå exakt match; för token-nivå utvärdering, precision, recall, och F-mått var 0,92, 0,73 respektive 0,82. Slutsatser: Resultaten visar att (1) medicinska tillstånd kan extraheras från FDA läkemedelsetiketter med hög prestanda; och (2) det är möjligt att utveckla en ram för ett intelligent databassystem.
Ett hybrid NLP-system, AutoMCExtractor, använder villkorade slumpmässiga fält och efterbehandlingsregler för att extrahera medicinska tillstånd från SPL och bygga trioler i form av([drognamn]-[medicinskt tillstånd]-[LOINC sektionshuvud]) REF.
7,700,808
Mining FDA drug labels for medical conditions
{'venue': 'BMC Medical Informatics and Decision Making', 'journal': 'BMC Medical Informatics and Decision Making', 'mag_field_of_study': ['Medicine', 'Computer Science']}
83,131
Twitter är en mikrobloggande webbplats, där användare kan posta meddelanden i mycket kort text som kallas Tweets. Tweets innehåller användarnas åsikter och känslor gentemot ett föremål eller en person. Denna uppfattning information är mycket användbar i olika aspekter för företag och regeringar. I detta dokument presenterar vi en metod som utför uppgiften att tweeta känslor identifiering med hjälp av en corpus av pre-annoterade tweets. Vi presenterar en känsla scoring funktion som använder tidigare information för att klassificera (binary klassificering ) och vikt olika känslor bär ord/fraser i tweets. Med hjälp av denna poängfunktion uppnår vi en klassificeringsnoggrannhet på 87% på Stanford Dataset och 88% på Mejaj Dataset. Med hjälp av övervakad maskininlärning, uppnår vi klassificeringsnoggrannhet på 88% på Stanford dataset.
REF ) presenterar en enkel känsla scoring funktion som använder tidigare information för att klassificera och vikta olika känslor bär ord/fraser i tweets.
17,511,753
Mining Sentiments from Tweets
{'venue': 'Proceedings of the 3rd Workshop in Computational Approaches to Subjectivity and Sentiment Analysis', 'journal': None, 'mag_field_of_study': ['Computer Science']}
83,132