_id
stringlengths
40
40
title
stringlengths
10
339
text
stringlengths
0
11.8k
632589828c8b9fca2c3a59e97451fde8fa7d188d
Hybryda algorytmu genetycznego i optymalizacji roju cząstek do projektowania sieci rekurencyjnych
W artykule zaproponowano ewolucyjną sieć rekurencyjną, która automatyzuje projektowanie rekurencyjnych sieci neuronowych/rozmytych przy użyciu nowego algorytmu ewolucyjnego uczenia się. Ten nowy ewolucyjny algorytm uczenia się opiera się na hybrydzie algorytmu genetycznego (GA) i optymalizacji roju cząstek (PSO) i dlatego nosi nazwę HGAPSO. W HGAPSO osobniki w nowym pokoleniu są tworzone nie tylko przez operację krzyżowania i mutacji, jak w GA, ale także przez PSO. Koncepcja strategii elit została przyjęta w HGAPSO, gdzie górna połowa najlepiej osiągających wyników w populacji uważana jest za elitę. Jednak zamiast bezpośrednio rozmnażać się następnemu pokoleniu, elity te są najpierw wzmacniane. Grupa utworzona przez elity jest uważana za rój, a każda elita odpowiada cząsteczce w niej zawartej. Pod tym względem elity wzmacnia PSO, operacja naśladująca zjawisko dojrzewania w przyrodzie. Te ulepszone elity stanowią połowę populacji w nowym pokoleniu, podczas gdy druga połowa jest generowana przez wykonanie operacji krzyżowania i mutacji na tych ulepszonych elitach. HGAPSO jest stosowane do rekurencyjnego projektowania sieci neuronowych/rozmytych w następujący sposób. W przypadku rekurencyjnej sieci neuronowej w pełni połączona rekurencyjna sieć neuronowa jest projektowana i stosowana do problemu wytwarzania sekwencji czasowych. W celu projektowania rekurencyjnej sieci rozmytej, rekurencyjna sieć rozmyta typu Takagi-Sugeno-Kang została zaprojektowana i zastosowana do dynamicznego sterowania instalacją. Wydajność HGAPSO jest porównywana zarówno z GA, jak i PSO w tych powtarzających się problemach projektowych sieci, co pokazuje jego wyższość.
86e87db2dab958f1bd5877dc7d5b8105d6e31e46
Hybrydowy EP i SQP do dynamicznej ekonomicznej wysyłki z funkcją nierównomiernego kosztu paliwa
Dynamiczna dyspozytornia ekonomiczna (DED) jest jedną z głównych funkcji obsługi i sterowania wytwarzaniem energii. Określa optymalne ustawienia jednostek wytwórczych z przewidywanym zapotrzebowaniem na obciążenie w określonym przedziale czasu. Celem jest jak najbardziej ekonomiczna eksploatacja systemu elektroenergetycznego, gdy system działa w granicach bezpieczeństwa. W artykule zaproponowano nową hybrydową metodologię rozwiązywania DED. Proponowana metoda jest opracowana w taki sposób, że proste programowanie ewolucyjne (EP) jest stosowane jako wyszukiwanie oparte na poziomie, które może dać dobry kierunek do optymalnego regionu globalnego, a lokalne wyszukiwanie sekwencyjne programowanie kwadratowe (SQP) jest używane jako precyzyjne dostrojenie w celu ustalenia optymalnego rozwiązania na końcu. Do zilustrowania skuteczności proponowanej metody w porównaniu z wynikami uzyskanymi z samych EP i SQP wykorzystano system testowy dziesięciu jednostek z funkcją niepłynnego kosztu paliwa.
2a047d8c4c2a4825e0f0305294e7da14f8de6fd3
Genetyczne systemy rozmyte - strojenie ewolucyjne i uczenie się baz wiedzy rozmytej
Nic dziwnego, gdy wchodzisz na tę stronę, aby dostać książkę. Jedną z popularnych obecnie książek jest ewolucyjne dostrajanie genetycznych systemów rozmytych i uczenie się baz wiedzy rozmytej. Możesz być zdezorientowany, ponieważ nie możesz znaleźć książki w księgarni w Twoim mieście. Powszechnie popularna książka będzie się szybko sprzedawać. A kiedy znajdziesz sklep, w którym kupisz książkę, będzie tak bardzo bolało, gdy jej zabraknie. Dlatego wyszukiwanie tej popularnej książki na tej stronie przyniesie Ci korzyści. Nie zabraknie ci tej książki.
506172b0e0dd4269bdcfe96dda9ea9d8602bbfb6
Zmodyfikowany optymalizator roju cząstek
W tym artykule wprowadzamy nowy parametr, zwany wagą bezwładności, do oryginalnego optymalizatora roju cząstek. Przeprowadzono symulacje, aby zilustrować istotny i skuteczny wpływ tego nowego parametru na optymalizator roju cząstek.
51317b6082322a96b4570818b7a5ec8b2e330f2f
Identyfikacja i kontrola układów dynamicznych z wykorzystaniem rekurencyjnych rozmytych sieci neuronowych
W artykule zaproponowano strukturę rekurencyjnej rozmytej sieci neuronowej (RFNN) do identyfikacji i sterowania nieliniowymi systemami dynamicznymi. RFNN jest z natury powtarzającą się wielowarstwową siecią koneksjonistyczną do realizacji rozmytych wnioskowania przy użyciu dynamicznych reguł rozmytych. Relacje czasowe są osadzone w sieci poprzez dodanie połączeń sprzężenia zwrotnego w drugiej warstwie rozmytej sieci neuronowej (FNN). RFNN rozszerza podstawową zdolność FNN do radzenia sobie z problemami czasowymi. Ponadto wyniki dla silnika wnioskowania FNNfuzzy, aproksymacji uniwersalnej i analizy zbieżności zostały rozszerzone na RFNN. W przypadku problemu sterowania przedstawiamy bezpośrednie i pośrednie podejścia do sterowania adaptacyjnego z wykorzystaniem RFNN. W oparciu o podejście stabilności Lapunowa przedstawiane są rygorystyczne dowody w celu zagwarantowania zbieżności RFNN poprzez wybór odpowiednich współczynników uczenia się. Wreszcie RFNN jest stosowany w kilku symulacjach (przewidywanie szeregów czasowych, identyfikacja i sterowanie systemami nieliniowymi). Wyniki potwierdzają skuteczność RFNN.
857a8c6c46b0a85ed6019f5830294872f2f1dcf5
Oddzielna selektywność twarzy i ciała na zakręcie wrzecionowatym.
Ostatnie doniesienia o wysokiej reakcji na ciała w obszarze wrzecionowatej twarzy (FFA) kwestionują pogląd, że FFA jest wyłącznie selektywny dla bodźców twarzy. Zbadaliśmy to twierdzenie, przeprowadzając eksperyment funkcjonalnego rezonansu magnetycznego zarówno w standardowej (3,125 x 3,125 x 4,0 mm), jak i wysokiej rozdzielczości (1,4 x 1,4 x 2,0 mm). W obu eksperymentach regiony zainteresowania (ROI) zostały zdefiniowane przy użyciu danych z zablokowanych przebiegów lokalizatora. W ramach każdego ROI zmierzyliśmy średnią odpowiedź szczytową na różne typy bodźców w niezależnych danych z kolejnego eksperymentu związanego ze zdarzeniami. Nasze skany lokalizatora zidentyfikowały wrzecionowaty obszar ciała (FBA), obszar selektywny dla ciała, o którym ostatnio donosili Peelen i Downing (2005), który jest anatomicznie różny od pozaprążkowego obszaru ciała. FBA pokrywała się i sąsiadowała z FFA u wszystkich uczestników z wyjątkiem dwóch. Selektywność FFA względem twarzy i FBA względem ciał była silniejsza w przypadku skanów o wysokiej rozdzielczości, zgodnie z oczekiwaniami wynikającymi ze zmniejszenia efektów objętości cząstkowych. Kiedy nowe obszary ROI zostały skonstruowane dla eksperymentu o wysokiej rozdzielczości poprzez pominięcie wokseli wykazujących nakładającą się selektywność zarówno dla ciał, jak i twarzy w skanach lokalizatora, powstały ROI FFA* nie wykazywał odpowiedzi powyżej obiektów kontrolnych dla bodźców ciała, a ROI FBA* nie wykazywał żadnej odpowiedzi. reakcja nad obiektami kontrolnymi na bodźce twarzy. Wyniki te wykazują silną selektywność w odrębnych, ale przyległych obszarach zakrętu wrzecionowatego tylko dla twarzy w jednym regionie (FFA*) i tylko ciał w drugim (FBA*).
12f107016fd3d062dff88a00d6b0f5f81f00522d
Harmonogramowanie w celu zmniejszenia zużycia energii procesora
Zużycie energii przez systemy komputerowe staje się coraz ważniejsze, zwłaszcza w przypadku systemów zasilanych bateryjnie. Monitory, dyski i procesory w tej kolejności zużywają najwięcej energii. Zmniejszenie energii zużywanej przez wyświetlacze i dyski było badane gdzie indziej; artykuł ten rozważa nową metodę redukcji energii zużywanej przez procesor. Wprowadzamy nowy wskaźnik wydajności energetycznej procesora — miliony instrukcji na dżul (MIPJ). Badamy klasę metod redukcji MIPJ, które charakteryzują się dynamiczną kontrolą szybkości zegara systemu przez planistę systemu operacyjnego. Samo zmniejszenie częstotliwości taktowania nie zmniejsza MIPJ, ponieważ aby wykonać tę samą pracę, system musi działać dłużej. Dostępnych jest jednak wiele metod zmniejszania energii przy zmniejszonej szybkości zegara, takich jak zmniejszenie napięcia [Chandrakasan i wsp. 1992][Horowitz 1993] lub zastosowanie logiki odwracalnej [Younis i Knight 1993] lub adiabatycznej [Athas i wsp. 1994]. . Jakie są właściwe algorytmy planowania, aby wykorzystać zmniejszoną częstotliwość taktowania, zwłaszcza w przypadku aplikacji wymagających coraz większej liczby instrukcji na sekundę? Rozważamy kilka metod dynamicznego zmieniania szybkości zegara pod kontrolą systemu operacyjnego i badamy wydajność tych metod w odniesieniu do śladów stacji roboczych. Podstawowym rezultatem jest to, że dostosowując częstotliwość taktowania z drobnym ziarnem, można zaoszczędzić znaczną ilość energii procesora z ograniczonym wpływem na wydajność.
1ae0ac5e13134df7a0d670fc08c2b404f1e3803c
Podejście do eksploracji danych do przewidywania lokalizacji w środowiskach mobilnych
Przewidywanie mobilności jest jednym z najważniejszych zagadnień, które należy zbadać w celu zarządzania mobilnością w mobilnych systemach komputerowych. W niniejszym artykule proponujemy nowy algorytm do przewidywania następnego ruchu między komórkami użytkownika mobilnego w sieci Personal Communication Systems. W pierwszej fazie naszego trójfazowego algorytmu wzorce mobilności użytkowników są wydobywane z historii trajektorii użytkowników mobilnych. W drugiej fazie z tych wzorców wyodrębniane są reguły mobilności, a w ostatniej fazie prognozy mobilności są realizowane przy użyciu tych reguł. Wydajność proponowanego algorytmu jest oceniana poprzez symulację w porównaniu z dwiema innymi metodami predykcji. Wyniki wydajności uzyskane pod względem precyzji i przypomnienia wskazują, że nasza metoda może dokonywać dokładniejszych prognoz niż inne metody. 2004 Elsevier B.V. Wszelkie prawa zastrzeżone.
7d3c9c4064b588d5d8c7c0cb398118aac239c71b
$\mathsf {pSCAN}$ : Szybkie i dokładne grupowanie wykresów strukturalnych
Zajmujemy się problemem grupowania grafów strukturalnych, podstawowym problemem w zarządzaniu i analizie danych grafowych. Biorąc pod uwagę nieskierowany graf nieważony, grupowanie grafów strukturalnych polega na przypisaniu wierzchołków do klastrów, a także na identyfikacji zbiorów wierzchołków środkowych i wierzchołków odstających, tak że wierzchołki w tym samym klastrze są gęsto ze sobą połączone, podczas gdy wierzchołki w różnych klastrach są luźno połączony. W tym artykule opracowujemy nowy dwuetapowy paradygmat grupowania skalowalnych grafów strukturalnych w oparciu o nasze trzy obserwacje. Następnie przedstawiamy <inline-formula> <tex-math notation="LaTeX">$\mathsf {pSCAN}$</tex-math><alternatives> <inline-graphic xlink:href="chang-ieq2-2618795 .gif"/></alternatives></inline-formula> w ramach paradygmatu, którego celem jest zmniejszenie liczby obliczeń podobieństwa strukturalnego i zaproponowanie technik optymalizacji w celu przyspieszenia sprawdzania, czy dwa wierzchołki są podobne do struktury. <inline-formula><tex-math notation="LaTeX">$\mathsf {pSCAN}$ </tex-math><alternatives><inline-graphic xlink:href="chang-ieq3-2618795.gif"/> </alternatives></inline-formula> wyświetla dokładnie te same klastry, co istniejące podejścia <inline-formula><tex-math notation="LaTeX">$\mathsf {SCAN}$ </tex-math><alternatives> <inline-graphic xlink:href="chang-ieq4-2618795.gif"/></alternatives></inline-formula> i <inline-formula><tex-math notation="LaTeX">$\mathsf {SKANUJ \text{++}}$</tex-math><alternatives> <inline-graphic xlink:href="chang-ieq5-2618795.gif"/></alternatives></inline-formula> i udowodnimy że <inline-formula><tex-math notation="LaTeX">$\mathsf {pSCAN}$</tex-math><alternatives> <inline-graphic xlink:href="chang-ieq6-2618795.gif"/ ></alternatives></inline-formula> jest optymalnym dla najgorszego przypadku. Ponadto proponujemy skuteczne techniki aktualizacji klastrów, gdy graf wejściowy zmienia się dynamicznie, a także rozszerzamy nasze techniki o inne miary podobieństwa, np. podobieństwo Jaccarda. Badania wydajności na dużych wykresach rzeczywistych i syntetycznych pokazują skuteczność naszego nowego podejścia i technik dynamicznego utrzymania klastrów. Warto zauważyć, że w przypadku wykresu na Twitterze z 1 miliardem krawędzi nasze podejście zajmuje 25 minut, podczas gdy najnowocześniejsze podejście nie może zakończyć się nawet po 24 godzinach.
305c45fb798afdad9e6d34505b4195fa37c2ee4f
Synteza, właściwości i zastosowania nanocząstek żelaza.
Żelazo, najbardziej wszechobecny z metali przejściowych i czwarty najpowszechniejszy pierwiastek w skorupie ziemskiej, jest strukturalnym kręgosłupem naszej nowoczesnej infrastruktury. Ironiczne jest zatem to, że jako nanocząsteczka żelazo zostało nieco zaniedbane na rzecz własnych tlenków, a także innych metali, takich jak kobalt, nikiel, złoto i platyna. To niefortunne, ale zrozumiałe. Reaktywność żelaza jest ważna w zastosowaniach makroskopowych (zwłaszcza rdzewienia), ale jest dominującym problemem w nanoskali. Od dawna wiadomo, że drobnoziarniste żelazo jest piroforyczne, co jest głównym powodem, dla którego nanocząstki żelaza nie zostały do ​​tej pory dokładnie zbadane. Ta ekstremalna reaktywność tradycyjnie czyniła nanocząsteczki żelaza trudnymi do zbadania i niewygodnymi w zastosowaniach praktycznych. Żelazo ma jednak wiele do zaoferowania w nanoskali, w tym bardzo silne właściwości magnetyczne i katalityczne. Ostatnie prace zaczęły wykorzystywać potencjał żelaza, a prace w tej dziedzinie wydają się kwitnąć.
9f234867df1f335a76ea07933e4ae1bd34eeb48a
Automatyczna ocena tłumaczenia maszynowego: podejście jakościowe
REKLAMA. La Consulta d'aquesta tesi queda condicionada a l'acceptació de les següents condicions d'ús: La difusió d'aquesta tesi per mitjà del service TDX (www.tdx.cat) i través del Dipòsit Digital de la UB (diposit. .edu) ha estat autoritzada pels titulars dels drets de propietat intel·lectual únicament per a usos privats emmarcats en activitats d'investigació i docència. No s'autoritza la seva reproducció amb finalitats de lucre ni la seva difusió i posada a disposició des d'un lloc aliè al servicei TDX ni al Dipòsit Digital de la UB. No s’autoritza la presentació del seu contingut en una finestra o marc alie a TDX o al Dipòsit Digital de la UB (framing). Aquesta reserva de drets afecta tant al resum de presentació de la tesi com als seus continguts. En la utilització o cita de part de la tesi és obligat indicar el nom de la persona autora.
5ebfcd50c56e51aada28ccecd041db5e002f5862
Ścieżka Gualzru do świata reklamy
Artykuł opisuje genezę Gualzru, robota na zlecenie dużej hiszpańskiej firmy technologicznej do świadczenia usług reklamowych w otwartych przestrzeniach publicznych. Gualzru musi stać przy interaktywnym panelu obserwując przechodzących ludzi iw pewnym momencie wybrać obiecującą kandydatkę i podejść do niej w celu zainicjowania rozmowy. Po krótkiej interakcji werbalnej robot ma przekonać przechodnia, aby wrócił do panelu, pozostawiając resztę zadania sprzedażowego wbudowanemu w niego interaktywnemu oprogramowaniu. Cały proces projektowania i budowy trwał niespełna trzy lata pracy zespołu składającego się z pięciu grup w różnych lokalizacjach geograficznych. Opisujemy tutaj wnioski wyciągnięte z tego okresu, z różnych punktów widzenia, w tym sprzętu, oprogramowania, decyzji architektonicznych i kwestii współpracy zespołowej.
73a7144e072356b5c9512bd4a87b22457d33760c
Modele odpowiedzi na leczenie dla kontrfaktycznego rozumowania z interwencjami o wartości ciągłej w czasie ciągłym
Efekty leczenia można oszacować na podstawie danych obserwacyjnych jako różnicę w potencjalnych wynikach. W tym artykule podejmujemy wyzwanie, jakim jest oszacowanie potencjalnego wyniku, gdy poziomy dawek terapeutycznych mogą się stale zmieniać w czasie. Ponadto zmienna wynikowa może nie być mierzona z regularną częstotliwością. Zaproponowane przez nas rozwiązanie przedstawia krzywe odpowiedzi na leczenie przy użyciu liniowych, niezmiennych w czasie systemów dynamicznych — zapewnia to elastyczne sposoby modelowania odpowiedzi w czasie na wysoce zmienne krzywe dawki. Co więcej, w przypadku danych wielowymiarowych proponowana metoda: odkrywa wspólną strukturę odpowiedzi na leczenie i linii bazowej w wielu markerach; i elastycznie modeluje trudną strukturę korelacji zarówno w obrębie sygnałów, jak i w czasie. W tym celu opieramy się na strukturze wielowyjściowych procesów Gaussa. Na symulowanym i wymagającym zestawie danych klinicznych wykazaliśmy znaczny wzrost dokładności w porównaniu z najnowocześniejszymi modelami.
c2aa3c7fd59a43c949844e98569429261dba36e6
Planarna antena śrubowa o polaryzacji kołowej
Przedstawiono planarną antenę śrubową do uzyskania szerokopasmowego promieniowania końcowego o polaryzacji kołowej przy zachowaniu bardzo niskiego profilu. Spirala jest formowana za pomocą drukowanych pasków z prostymi połączeniami realizowanymi przez platerowane przelotki. Prądy płynące po paskach i wzdłuż przelotek spirali przyczyniają się odpowiednio do polaryzacji poziomej i pionowej. Poza tym prąd na płaszczyźnie uziemienia jest wykorzystywany do osłabienia silnej amplitudy poziomego pola elektrycznego generowanego przez to na listwach. W ten sposób można uzyskać dobrą polaryzację kołową. Co więcej, stosuje się stożkową spiralę i przewodzące ścianki boczne, aby poszerzyć szerokość pasma współczynnika osiowego (AR), a także polepszyć charakterystykę promieniowania końcowego płomienia. Zaprojektowana antena pracuje na częstotliwości środkowej 10 GHz. Symulowane wyniki pokazują, że planarna antena spiralna osiąga szerokie pasmo impedancji (|S11| <; -10 dB) od 7,4 do 12,8 GHz (54%) i 3-dB AR od 8,2 do 11,6 GHz (34%) przy zachowaniu grubość tylko 0,11λ0 przy częstotliwości środkowej. Prototyp proponowanej anteny jest produkowany i testowany. Zmierzone wyniki są w dobrej zgodności z symulowanymi.
befdf0eb1a3d2e0d404e7fbdb43438be7ae607e5
Zmiany składu ciała po bardzo niskokalorycznej diecie ketogenicznej u osób z otyłością oceniane za pomocą 3 standardowych metod.
Kontekst Częstymi problemami związanymi ze stosowaniem niskokalorycznych diet w leczeniu otyłości jest zmniejszenie masy beztłuszczowej, głównie masy mięśniowej, która występuje wraz z utratą masy tłuszczowej (FM), oraz określenie najlepszych metodologii oceny zmian składu ciała. Cel Badanie to miało na celu ocenę zmian w składzie ciała pacjentów otyłych wywołanych dietą bardzo niskokaloryczną (VLCK) oraz porównanie 3 różnych metodologii stosowanych do oceny tych zmian. Projekt Dwudziestu otyłych pacjentów stosowało dietę VLCK przez 4 miesiące. Ocenę składu ciała przeprowadzono za pomocą dwuenergetycznej absorpcjometrii rentgenowskiej (DXA), wieloczęstotliwościowej impedancji bioelektrycznej (MF-BIA) oraz pletyzmografii przemieszczeń powietrza (ADP). Oceniono również siłę mięśni. Pomiary przeprowadzono w 4 punktach dopasowanych do faz ketozy (bazowa, maksymalna ketoza, ketoza zanikająca i poza ketozą). Wyniki Po 4 miesiącach dieta VLCK spowodowała spadek masy ciała o -20,2 ± 4,5 kg, kosztem redukcji masy tłuszczowej (FM) o -16,5 ± 5,1 kg (DXA), -18,2 ± 5,8 kg (MF-BIA) i -17,7 ± 9,9 kg (ADP). Zaobserwowano również znaczny spadek w trzewnej FM. Łagodne, ale wyraźne zmniejszenie masy beztłuszczowej nastąpiło przy maksymalnej ketozie, głównie w wyniku zmian w całkowitej ilości wody w organizmie, a następnie zostało odzyskane. Nie zaobserwowano zmian w sile mięśni. Wykazano silną korelację między trzema metodami oceny składu ciała. Wniosek Utrata masy ciała spowodowana dietą VLCK odbywała się głównie kosztem FM i masy trzewnej; zachowana została masa i siła mięśni. Spośród 3 stosowanych technik składu ciała metoda MF-BIA wydaje się wygodniejsza w warunkach klinicznych.
506d4ca228f81715946ed1ad8d9205fad20fddfe
Pomiar percepcji równowagi obrazowej na pierwszy rzut oka za pomocą japońskiej kaligrafii
Zgodnie z teorią sztuki równowaga obrazowa działa w celu ujednolicenia elementów obrazu w spójną kompozycję. W przypadku kompozycji asymetrycznych uważa się, że elementy wyważające są podobne do wyważania ciężarów mechanicznych w ramach osi symetrii. Ocena preferencji dla równowagi (APB), oparta na strukturze osi symetrii sugerowanej w Arnheim R, 1974 Art and Visual Perception: A Psychology of the Creative Eye (Berkeley, CA: University of California Press), z powodzeniem dopasowano oceny równowagi przedmiotów obrazy kształtów geometrycznych w nieograniczonym czasie oglądania. Przeanalizujemy teraz obrazową percepcję równowagi japońskiej kaligrafii podczas pierwszej fiksacji, odizolowanej od późniejszych procesów poznawczych, porównując pomiary APB z wynikami z zadań oceny równowagi i porównań. Wyniki pokazują wysoką korelację międzyzadaniową, ale niską korelację z APB. Powtórzyliśmy zadanie oceny, rozszerzając zestaw obrazów tak, aby obejmował pięć obrotów każdego obrazu, porównując postrzeganie równowagi między grupami artystów i początkujących uczestników. Rotacja nie ma wpływu na obliczanie balansu APB, ale dramatycznie wpływa na ocenę balansu, szczególnie dla ekspertów od sztuki. Analizujemy różnorodność efektów rotacji i sugerujemy, że zamiast zależeć od rozmiaru i położenia elementu względem osi symetrii, przetwarzanie pierwszego balansu fiksacji pochodzi z procesów globalnych, takich jak grupowanie linii i kształtów, rozpoznawanie obiektów, preferencje dla elementów poziomych i pionowych, zamknięcie i zakończenie, wzmocnione symetrią pionową.
772205182fbb6ad842df4a6cd937741145eeece0
Palenie i rak szyjki macicy: zbiorcza analiza wieloośrodkowego badania kliniczno-kontrolnego IARC
Wstęp: Od dawna podejrzewa się, że palenie jest czynnikiem ryzyka raka szyjki macicy. Jednak nie wszystkie poprzednie badania były właściwie kontrolowane pod kątem wpływu zakażenia wirusem brodawczaka ludzkiego (HPV), które zostało obecnie uznane za praktycznie niezbędną przyczynę raka szyjki macicy. Aby ocenić rolę palenia tytoniu jako kofaktora progresji od zakażenia HPV do raka, przeprowadziliśmy zbiorczą analizę 10 wcześniej opublikowanych badań kliniczno-kontrolnych. Niniejsza analiza jest częścią serii analiz kofaktorów HPV w etiologii raka szyjki macicy. Metody: Zebrano dane z ośmiu badań kliniczno-kontrolnych nad inwazyjnym rakiem szyjki macicy (ICC) i dwoma rakiem in situ (CIS) na czterech kontynentach. Wszystkie badania wykorzystywały podobny protokół i kwestionariusze oraz obejmowały opartą na PCR ocenę DNA HPV w rozmazach cytologicznych lub próbkach biopsyjnych. Do analizy włączono tylko osoby z dodatnim wynikiem DNA HPV. Łącznie przeanalizowano 1463 przypadki płaskonabłonkowego ICC, 211 przypadków CIS, 124 przypadki gruczolakowato- lub płaskonabłonkowego ICC i 254 kobiety z grupy kontrolnej. Połączone ilorazy szans (OR) i 95% przedziały ufności (CI) oszacowano przy użyciu modeli regresji logistycznej kontrolujących czynniki pomieszania płci i nieseksualne. Wyniki: Wśród kobiet HPV-dodatnich występowało zwiększone ryzyko palenia tytoniu (OR 2,17 95% CI 1,46–3,22). Analizując wyniki według typu histologicznego, stwierdzono nadmierne ryzyko wśród przypadków raka płaskonabłonkowego u obecnych palaczy (OR 2,30, 95% CI 1,31–4,04) i byłych palaczy (OR 1,80, 95% CI 0,95–3,44). Nie wykryto wyraźnego wzoru związku z ryzykiem dla gruczolakoraków, chociaż liczba przypadków z tym typem histologicznym była ograniczona. Wnioski: Palenie zwiększa ryzyko raka szyjki macicy wśród kobiet HPV-dodatnich. Wyniki naszego badania są zgodne z kilkoma wcześniej przeprowadzonymi badaniami nad paleniem i rakiem szyjki macicy, które były odpowiednio kontrolowane pod kątem infekcji HPV. Ostatnio rosnące trendy palenia wśród młodych kobiet mogą mieć poważny wpływ na zachorowalność na raka szyjki macicy w nadchodzących latach.
d2018e51b772aba852e54ccc0ba7f0b7c2792115
Wykrywanie oddechu: w kierunku zminiaturyzowanego, nadającego się do noszenia, zasilanego bateryjnie systemu monitorowania
W niniejszym artykule przeanalizowano główne wyzwania związane z nieinwazyjnym, ciągłym, przenośnym i długotrwałym monitorowaniem oddechu. Charakterystyki akustycznego sygnału oddechowego z miniaturowego czujnika są badane w obecności źródeł hałasu i artefaktów zakłócających, które wpływają na sygnał. Na podstawie tych wyników opracowano algorytm wykrywania oddychania. Możliwe jest zaimplementowanie algorytmu na pojedynczym układzie scalonym, dzięki czemu nadaje się on do miniaturowego urządzenia czujnikowego. Algorytm jest testowany w obecności źródeł hałasu na pięciu badanych i wykazuje średni wskaźnik sukcesu 91,3% (połączenie prawdziwych pozytywów i prawdziwych negatywów).
cc76f5d348ab6c3a20ab4adb285fc1ad96d3c009
Sterowana mową trójwymiarowa animacja twarzy z niejawną świadomością emocjonalną: podejście do głębokiego uczenia się
Wprowadzamy podejście sieci neuronowej rekurencyjnej pamięci krótkotrwałej (LSTM-RNN) do animacji twarzy w czasie rzeczywistym, która automatycznie szacuje rotację głowy i aktywacje jednostek czynności twarzy mówcy na podstawie tylko jej wypowiedzi. W szczególności zmieniające się w czasie kontekstowe nieliniowe mapowanie między strumieniem audio a wizualnymi ruchami twarzy jest realizowane poprzez trenowanie sieci neuronowej LSTM na dużym korpusie danych audiowizualnych. W tej pracy wyodrębniamy zestaw cech akustycznych z wejściowego dźwięku, w tym spektrogram ze skalą Mel, współczynniki cepstralne częstotliwości Mel i chromagram, które mogą skutecznie reprezentować zarówno postęp kontekstowy, jak i intensywność emocjonalną mowy. Wyjściowe ruchy twarzy charakteryzują się rotacją 3D i mieszaniem ciężarów ekspresji modelu blendshape, które można wykorzystać bezpośrednio do animacji. Tak więc, mimo że nasz model nie przewiduje wyraźnie stanów afektywnych mówcy, jego manifestacja emocjonalna jest odtwarzana poprzez wagę ekspresji modelu twarzy. Eksperymenty na zbiorze danych oceny różnych mówców w szerokim zakresie stanów afektywnych pokazują obiecujące wyniki naszego podejścia do animacji twarzy opartej na mowie w czasie rzeczywistym.
1b2a0e8af5c1f18e47e71244973ce4ace4ac6034
Skompresowane nieparametryczne modelowanie języka
Hierarchiczne metody Pitman-Yor Process są przekonującymi metodami uczenia modeli językowych, przewyższającymi metody oparte na szacowaniu punktowym. Jednak modele te pozostają niepopularne ze względu na problemy z wnioskowaniem obliczeniowym i statystycznym, takie jak zużycie pamięci i czasu, a także słabe mieszanie próbnika. W tej pracy proponujemy nowatorski framework, który reprezentuje model HPYP w sposób zwarty przy użyciu skompresowanych drzew sufiksów. Następnie opracowujemy wydajny schemat wnioskowania przybliżonego w tym frameworku, który ma znacznie mniejszy ślad pamięci w porównaniu z pełnym HPYP i jest szybki w czasie wnioskowania. Wyniki eksperymentalne pokazują, że nasz model można zbudować na znacznie większych zestawach danych w porównaniu z poprzednimi modelami HPYP, będąc o kilka rzędów wielkości mniejszymi, szybkimi do uczenia i wnioskowania oraz przewyższającymi zawiłość najnowocześniejszego Zmodyfikowanego Kneser- Wygładzanie LM na podstawie liczby Neya nawet o 15%.
c9d41f115eae5e03c5ed45c663d9435cb66ec942
Rozcinanie i ponowne składanie algorytmów korekcji kolorów do łączenia obrazów
Niniejszy artykuł wprowadza nowe ramy kompozycyjne do klasyfikacji metod korekcji kolorów według ich dwóch głównych jednostek obliczeniowych. Struktura została wykorzystana do analizy piętnastu spośród najlepszych algorytmów korekcji koloru, a tak uzyskane jednostki obliczeniowe, z dodaniem czterech nowych jednostek specjalnie zaprojektowanych do tej pracy, zostały następnie złożone w kombinatoryczny sposób, aby stworzyć około stu różnych metod korekcji koloru, z których większość nigdy wcześniej nie była brana pod uwagę. Powyższe metody korekcji kolorów przetestowano na trzech różnych istniejących zestawach danych, w tym na rzeczywistych i sztucznych przekształceniach kolorów, a także na nowym zestawie danych par obrazów rzeczywistych sklasyfikowanych według rodzaju zmian kolorów wywołanych przez określone ustawienia akwizycji. W odróżnieniu od poprzednich ocen, szczególny nacisk położono na skuteczność w rzeczywistych zastosowaniach, takich jak mozaikowanie i łączenie obrazów, gdzie wymagana jest odporność na silne niewspółosiowość obrazu i efekty rozpraszania światła. Po raz pierwszy przedstawiono dowody eksperymentalne w postaci najnowszych percepcyjnych metryk jakości obrazu, o których wiadomo, że są najbliższe ludzkiemu osądowi. Wyniki porównawcze pokazują, że kombinacje nowych jednostek obliczeniowych są najskuteczniejsze w rzeczywistych scenariuszach szycia, niezależnie od konkretnego źródła zmiany koloru. Z drugiej strony, w przypadku dokładnego wyrównania obrazu i zmian sztucznych kolorów, najlepiej działające metody wykorzystują albo jedną z nowych jednostek obliczeniowych, albo składają się ze świeżych kombinacji istniejących jednostek.
b579366db457216b0548220bf369ab9eb183a0cc
Analiza dotycząca znaczenia analityki zgłoszeń i analizy defektów z perspektywy jakości oprogramowania
Oprogramowanie, mimo że niematerialne, powinno podlegać ewolucji, aby dopasować się do ciągle zmieniających się scenariuszy świata rzeczywistego. Każdy problem, z którym boryka się zespół ds. rozwoju i serwisu, bezpośrednio przekłada się na jakość oprogramowania. Zgodnie z powiązaną pracą, bardzo niewiele badań jest prowadzonych w dziedzinie biletu i związanego z nim incydentu; część konserwacji naprawczej. Dogłębne badania biletów na incydenty należy traktować jako krytyczne, ponieważ dostarczają informacji związanych z rodzajem czynności konserwacyjnych, które są wykonywane w dowolnym znaczniku czasu. Dlatego klasyfikowanie i analizowanie biletów staje się krytycznym zadaniem w zarządzaniu operacjami usługi, ponieważ z każdym incydentem będzie powiązana umowa o gwarantowanym poziomie usług. Ponadto analiza incydentów jest niezbędna do zidentyfikowania powiązanych wzorców. Ze względu na istnienie ogromnej populacji oprogramowania w każdej organizacji i miliony incydentów zgłaszanych każdego roku na oprogramowanie, praktycznie niemożliwe jest ręczne przeanalizowanie wszystkich zgłoszeń. Ten artykuł koncentruje się na określeniu znaczenia biletu dla utrzymania jakości oprogramowania, a także na odróżnieniu go od defektu związanego z systemem oprogramowania. W tym artykule przedstawiono znaczenie identyfikacji defektów w oprogramowaniu, a także obsługi zgłoszeń związanych z incydentami i rozwiązywania ich z perspektywy jakości. Zawiera również przegląd analizy defektów zakresu i analizy zgłoszeń dostarczanych badaczom.
f69253e97f487b9d77b72553a9115fc814e3ed51
Konwolucyjna sieć neuronowa Clickbait
Wraz z rozwojem reklam internetowych, clickbait rozprzestrzeniał się coraz szerzej. Clickbait nie satysfakcjonuje użytkowników, ponieważ treść artykułu nie odpowiada ich oczekiwaniom. W związku z tym wykrywanie przynęt na klikanie cieszy się ostatnio coraz większym zainteresowaniem. Tradycyjne metody wykrywania przynęty na kliknięcia opierają się na zaawansowanej inżynierii funkcji i nie odróżniają przynęty na kliknięcia od zwykłych nagłówków właśnie ze względu na ograniczoną ilość informacji w nagłówkach. Splotowa sieć neuronowa jest przydatna do wykrywania przynęt na kliknięcia, ponieważ wykorzystuje wstępnie wyszkolony Word2Vec do semantycznego rozumienia nagłówków i wykorzystuje różne jądra do znajdowania różnych cech nagłówków. Jednak różne rodzaje artykułów zwykle wykorzystują różne sposoby przyciągania uwagi użytkowników, a wstępnie wytrenowany model Word2Vec nie może rozróżnić tych różnych sposobów. Aby rozwiązać ten problem, proponujemy splotową sieć neuronową typu clickbait (CBCNN), która uwzględnia nie tylko ogólne cechy, ale także specyficzne cechy różnych typów artykułów. Nasze wyniki eksperymentalne pokazują, że nasza metoda przewyższa tradycyjne algorytmy wykrywania przynęty i model TextCNN pod względem precyzji, przywołania i dokładności.
6c9bd4bd7e30470e069f8600dadb4fd6d2de6bc1
Baza danych schematów narracyjnych
Niniejszy artykuł opisuje nowy zasób językowy zdarzeń i ról semantycznych, które charakteryzują sytuacje w świecie rzeczywistym. Schematy narracyjne zawierają zestawy powiązanych wydarzeń (edytuj i publikuj), czasową kolejność wydarzeń (edytuj przed publikacją) oraz semantyczne role uczestników (autorzy publikują książki). Ten rodzaj wiedzy o świecie miał kluczowe znaczenie dla wczesnych badań nad rozumieniem języka naturalnego. Skrypty były jednym z głównych formalizmów, reprezentujących wspólne sekwencje zdarzeń zachodzących na świecie. Niestety większość tej wiedzy była ręcznie kodowana, a jej tworzenie było czasochłonne. Obecne techniki uczenia maszynowego, a także nowe podejście do uczenia się poprzez łańcuchy odniesienia, pozwoliły nam automatycznie wyodrębnić bogatą strukturę zdarzeń z tekstu otwartej domeny w postaci schematów narracyjnych. Zasób schematów narracyjnych opisany w niniejszym artykule zawiera około 5000 unikalnych zdarzeń połączonych w schematy o różnej wielkości. Opisujemy zasób, sposób, w jaki się go uczy, oraz nową ocenę pokrycia tych schematów niewidzialnymi dokumentami.
a72daf1fc4b1fc16d3c8a2e33f9aac6e17461d9a
Sugestia kontekstowa zorientowana na użytkownika
Systemy rekomendacji są używane w wielu domenach, aby wspomagać podejmowanie decyzji przez użytkowników poprzez dostarczanie rekomendacji dotyczących przedmiotów, a tym samym zmniejszanie przeciążenia informacjami. Systemy rekomendacji uwzględniające kontekst idą dalej, uwzględniając zmienność preferencji użytkowników w różnych kontekstach i sugerując elementy, które są odpowiednie w różnych kontekstach. W niniejszym artykule przedstawiamy nowatorskie zadanie rekomendacji „Sugestia kontekstu”, w ramach którego system rekomenduje konteksty, w których elementy mogą być wybierane. Przedstawiamy motywacje stojące za pojęciem sugestii kontekstu i omawiamy kilka potencjalnych rozwiązań. W szczególności koncentrujemy się na sugestii kontekstu zorientowanej na użytkownika, która polega na rekomendowaniu odpowiednich kontekstów w oparciu o profil użytkownika. Proponujemy rozszerzenia znanych algorytmów rekomendacji uwzględniających kontekst, takich jak faktoryzacja tensora i modelowanie kontekstowe oparte na odchyleniach, i dostosowujemy je jako metody rekomendowania kontekstów zamiast pozycji. W naszej ocenie empirycznej porównujemy proponowane rozwiązania z kilkoma podstawowymi algorytmami wykorzystującymi cztery zestawy danych ze świata rzeczywistego.
585da6b6355f3536e1b12b30ef4c3ea54b955f2d
Zachowanie retweeterów obserwujących markę na Twitterze: Jak relacje z markami wpływają na elektroniczny przekaz szeptany marki
Twitter, popularna witryna mikroblogowa, cieszy się coraz większym zainteresowaniem jako unikalne narzędzie komunikacji, które ułatwia elektroniczną pocztę pantoflową (eWOM). Aby uzyskać lepszy wgląd w ten potencjał, badanie to sprawdza, w jaki sposób relacje konsumentów z markami wpływają na ich zaangażowanie w retweetowanie wiadomości marki na Twitterze. Dane z ankiety przeprowadzonej wśród 315 koreańskich konsumentów, którzy obecnie śledzą marki na Twitterze, pokazują, że ci, którzy retweetują wiadomości dotyczące marki, przewyższają tych, którzy tego nie robią pod względem identyfikacji marki, zaufania do marki, zaangażowania w społeczność, zamiaru członkostwa w społeczności, częstotliwości korzystania z Twittera i całkowitej liczby postów. 2014 Elsevier Ltd. Wszelkie prawa zastrzeżone.
d18cc66f7f87e041dec544a0b843496085ab54e1
Pamięć, nawigacja i rytm theta w układzie hipokampowo-śródwęchowym
Teorie dotyczące funkcji układu hipokampa opierają się w dużej mierze na dwóch fundamentalnych odkryciach: amnestycznych konsekwencjach usunięcia hipokampa i powiązanych struktur u słynnego pacjenta H.M. oraz obserwację, że impulsowa aktywność neuronów hipokampa jest związana z przestrzenną pozycją szczura. W ślad za tymi odkryciami podjęto wiele prób pogodzenia tych pozornie odmiennych funkcji. Proponujemy tutaj, że mechanizmy pamięci i planowania wyewoluowały z mechanizmów nawigacji w świecie fizycznym i stawiamy hipotezę, że algorytmy neuronalne leżące u podstaw nawigacji w przestrzeni rzeczywistej i mentalnej są zasadniczo takie same. Przeglądamy dane eksperymentalne na poparcie tej hipotezy i omawiamy, w jaki sposób określone wzorce wyzwalania i dynamika oscylacyjna w korze śródwęchowej i hipokampie mogą wspierać zarówno nawigację, jak i pamięć.
22fc3af1fb55d48f3c03cd96f277503e92541c60
Predykcyjna kontrola przetworników mocy: projekty o gwarantowanej wydajności
W niniejszej pracy zaproponowano projekt funkcji kosztu w oparciu o koncepcje stabilności Lapunowa dla sterowania predykcyjnego modelu zbioru sterowania skończonego. Taka konstrukcja sterownika predykcyjnego pozwala scharakteryzować wydajność sterowanego przekształtnika, zapewniając jednocześnie wystarczające warunki dla lokalnej stabilności dla klasy przekształtników mocy. Przeprowadzono symulacje i wyniki eksperymentów na przetworniku buck dc-dc i dwupoziomowym inwerterze dc-ac, aby potwierdzić skuteczność naszej propozycji.
4114c89bec92ebde7c20d12d0303281983ed1df8
Projekt i wdrożenie szybkiego dynamicznego filtra pakietów
W tym artykule przedstawiono Swift, filtr pakietów do wysokowydajnego przechwytywania pakietów na komercyjnym, ogólnodostępnym sprzęcie. Kluczowe cechy Swifta to: 1) bardzo niskie opóźnienie aktualizacji filtra dla dynamicznego filtrowania pakietów oraz 2) szybkie przetwarzanie pakietów z szybkością gigabitów na sekundę. Opierając się na złożonej architekturze zestawu instrukcji (ISA) komputera (CISC), Swift osiąga tę pierwszą dzięki konstrukcji zestawu instrukcji, która eliminuje potrzebę kompilacji i sprawdzania bezpieczeństwa, a drugą głównie wykorzystując pojedynczą instrukcję, wiele danych (SIMD). Wdrażamy Swift w jądrze Linux 2.6 dla architektur i386 i ×86-64 oraz szeroko oceniamy jego dynamiczną i statyczną wydajność filtrowania na wielu maszynach z różnymi konfiguracjami sprzętowymi. Porównujemy Swift z BPF (filtrem pakietów BSD) – de facto standardem filtrowania pakietów w nowoczesnych systemach operacyjnych – i ręcznie kodowanymi zoptymalizowanymi filtrami C, które są używane do demonstrowania możliwych wzrostów wydajności. W przypadku zadań dynamicznego filtrowania Swift jest co najmniej trzy rzędy wielkości szybszy niż BPF pod względem opóźnienia aktualizacji filtra. W przypadku zadań filtrowania statycznego Swift nawet trzykrotnie przewyższa BPF pod względem szybkości przetwarzania pakietów i osiąga znacznie zbliżoną wydajność do zoptymalizowanych filtrów C. Pokazujemy również, że Swift może wykorzystać moc obliczeniową sprzętowych instrukcji SIMD dzięki zestawowi instrukcji obsługującemu SIMD.
8e508720cdb495b7821bf6e43c740eeb5f3a444a
Nauka skalowalnych głębokich jąder z Recurrent Struktura
Wiele aplikacji w mowie, robotyce, finansach i biologii zajmuje się danymi sekwencyjnymi, gdzie porządkowanie i powtarzające się struktury są powszechne. Jednak ta struktura nie może być łatwo uchwycona przez standardowe funkcje jądra. Do modelowania takiej struktury proponujemy ekspresyjne funkcje jądra w formie zamkniętej dla procesów Gaussa. Powstały model, GP-LSTM, w pełni zawiera indukcyjne błędy systematyczne sieci rekurencyjnych z pamięcią długo-krótkotrwałą (LSTM), zachowując jednocześnie nieparametryczne probabilistyczne zalety procesów Gaussa. Uczymy się właściwości proponowanych jąder poprzez optymalizację prawdopodobieństwa marginalnego procesu Gaussa przy użyciu nowej, dającej się udowodnić zbieżnej procedury gradientu półstochastycznego i wykorzystujemy strukturę tych jąder do skalowalnego uczenia i przewidywania. To podejście zapewnia praktyczną reprezentację dla bayesowskich LSTM. Demonstrujemy najnowocześniejsze osiągi w kilku testach porównawczych i dokładnie badamy wynikową aplikację do jazdy autonomicznej, w której niepewności predykcyjne zapewniane przez GP-LSTM są wyjątkowo cenne.
110599f48c30251aba60f68b8484a7b0307bcb87
SemEval-2015 Zadanie 11: Analiza sentymentu języka figuratywnego na Twitterze
Niniejszy raport podsumowuje cele i ocenę zadania SemEval 2015 dotyczącego analizy sentymentu języka figuratywnego na Twitterze (Zadanie 11). Jest to pierwsze zadanie analizy sentymentu w całości poświęcone analizie języka figuratywnego na Twitterze. W szczególności rozważane są trzy szerokie klasy języka figuratywnego: ironia, sarkazm i metafora. Złote standardowe zestawy zawierające 8000 tweetów szkoleniowych i 4000 tweetów testowych zostały opisane przy użyciu pracowników platformy crowdsourcingowej CrowdFlower. Systemy uczestniczące musiały zapewnić szczegółową ocenę nastrojów w 11-punktowej skali (od -5 do +5, w tym 0 dla intencji neutralnych) dla każdego tweeta, a systemy zostały ocenione w odniesieniu do złotego standardu przy użyciu zarówno podobieństwa, jak i średniej -Kwadratowa miara błędu.
4b53f660eb6cfe9180f9e609ad94df8606724a3d
Eksploracja tekstu nagłówków wiadomości dla prognoz rynku FOREX: wielowarstwowy algorytm redukcji wymiarów z semantyką i sentymentem
W niniejszym artykule zaproponowano nowatorskie podejście do przewidywania śróddziennych kierunkowych ruchów pary walutowej na rynku walutowym na podstawie tekstu najświeższych nagłówków wiadomości finansowych. Motywacja tej pracy jest dwojaka: po pierwsze, chociaż w literaturze wykazano, że prognozowanie rynku za pomocą eksploracji tekstów jest obiecującym obszarem pracy, podejścia do eksploracji tekstów stosowane na tym etapie niewiele wykraczają poza podstawowe, ponieważ jest wciąż rozwijającą się dziedziną. Praca ta jest próbą położenia większego nacisku na metody text-miningu i zmierzenia się z pewnymi jego specyficznymi aspektami, które były słabe w poprzednich pracach, a mianowicie: problemem wysokiej wymiarowości oraz problemem ignorowania sentymentu i semantyki w radzeniu sobie z językiem tekstu. . Badania te zakładają, że zajęcie się tymi aspektami eksploracji tekstów ma wpływ na jakość uzyskiwanych wyników. Zaproponowany system potwierdza słuszność tego założenia. Drugą częścią motywacji jest zbadanie konkretnego rynku, a mianowicie rynku walutowego, który wydaje się nie być badany w poprzednich pracach opartych na predykcyjnym eksploracji tekstu. Dlatego też wyniki tej pracy z powodzeniem pokazują również predykcyjny związek między tym konkretnym typem rynku a danymi tekstowymi wiadomości. Poza powyższymi dwoma głównymi składnikami motywacji, istnieją inne specyficzne aspekty, które sprawiają, że konfiguracja proponowanego systemu i przeprowadzonego eksperymentu są wyjątkowe, na przykład użycie tylko nagłówków artykułów z wiadomościami, a nie treści artykułów z wiadomościami, co umożliwia wykorzystanie krótkich fragmentów tekstu, a nie długich; lub korzystanie z ogólnych wiadomości finansowych bez dalszej filtracji. Aby zrealizować powyższe, w niniejszej pracy opracowano wielowarstwowy algorytm, który zajmuje się każdym z wymienionych aspektów problemu eksploracji tekstu w wyznaczonej warstwie. Pierwsza warstwa nosi nazwę Semantic Abstraction Layer i rozwiązuje problem współodniesienia w eksploracji tekstu, który przyczynia się do rzadkości. Współodwołanie występuje, gdy dwa lub więcej słów w korpusie tekstu odnosi się do tego samego pojęcia. Ta praca tworzy niestandardowe podejście o nazwie Heuristic-Hypernyms Feature-Selection, które umożliwia rozpoznawanie słów z tym samym słowem-rodzicem, aby były traktowane jako jedna całość. W rezultacie dokładność przewidywania znacznie wzrasta w tej warstwie, co przypisuje się odpowiedniej redukcji szumów z przestrzeni cech. Druga warstwa nosi nazwę Warstwa integracji sentymentu, która integruje możliwość analizy nastrojów z algorytmem, proponując wagę nastrojów o nazwie SumScore, która odzwierciedla nastroje inwestorów. Ponadto ta warstwa zmniejsza wymiary, eliminując te, które mają zerową wartość pod względem sentymentu, a tym samym poprawia dokładność prognoz. Trzecia warstwa obejmuje dynamiczny algorytm tworzenia modelu, określany jako Synchronous Targeted Feature Reduction (STFR). Nadaje się do wyzwania pod ręką, w którym dotyczy eksploracji strumienia tekstu. Aktualizuje modele o najnowsze dostępne informacje i, co ważniejsze, zapewnia zmniejszenie wymiarów do absolutnego minimum. Algorytm i każda z jego warstw są szeroko oceniane przy użyciu rzeczywistych danych rynkowych i treści wiadomości z wielu lat i okazały się solidne i lepsze od jakiegokolwiek innego porównywalnego rozwiązania. Proponowane techniki zaimplementowane w systemie dają bardzo wysokie dokładności kierunkowe dochodzące do 83,33%. Oprócz dobrze zaokrąglonego, wieloaspektowego algorytmu, praca ta wnosi bardzo potrzebne ramy badawcze w tym kontekście z bazą testową danych, która musi sprawić, że przyszłe przedsięwzięcia badawcze będą wygodniejsze. Opracowany algorytm jest skalowalny, a jego modułowa konstrukcja umożliwia doskonalenie każdej z jego warstw w przyszłych badaniach. Ten artykuł zawiera wiele szczegółów, aby odtworzyć cały system i przeprowadzone eksperymenty. 2014 Elsevier Ltd. Wszelkie prawa zastrzeżone. A. Khadjeh Nasirtoussi i in. / Systemy eksperckie z aplikacjami 42 (2015) 306–324 307
7f90ef42f22d4f9b86d33b0ad7f16261273c8612
BabelNet: Automatyczna konstrukcja, ocena i zastosowanie wielojęzycznej sieci semantycznej o szerokim zasięgu
a r t i c e i n f o a b s t r a k t Przedstawiamy automatyczne podejście do budowy BabelNet, bardzo dużej, wielojęzycznej sieci semantycznej o szerokim zasięgu. Kluczem do naszego podejścia jest integracja wiedzy leksykograficznej i encyklopedycznej z WordNetu i Wikipedii. Ponadto stosowane jest tłumaczenie maszynowe w celu wzbogacenia zasobu o informacje leksykalne dla wszystkich języków. Najpierw przeprowadzamy eksperymenty in vitro na nowych i istniejących zestawach danych o złotym standardzie, aby pokazać wysoką jakość i zasięg BabelNet. Następnie pokazujemy, że nasz zasób leksykalny może być z powodzeniem wykorzystany do dezambiguacji sensu słów zarówno jednojęzycznych, jak i międzyjęzykowych: dzięki szerokiemu zakresowi leksykalnemu i nowatorskim relacjom semantycznym jesteśmy w stanie osiągnąć najnowocześniejsze wyniki na trzech różnych SemEval zadania ewaluacyjne.
033b62167e7358c429738092109311af696e9137
Kciuki w górę czy w dół? Orientacja semantyczna stosowana do nienadzorowanej klasyfikacji recenzji
W niniejszym artykule przedstawiono prosty algorytm uczenia nienadzorowanego, służący do klasyfikowania recenzji jako rekomendowanych (kciuki w górę) lub niezalecanych (kciuki w dół). Klasyfikacja recenzji jest przewidywana przez średnią orientację semantyczną fraz w recenzji, które zawierają przymiotniki lub przysłówki. Wyrażenie ma pozytywną orientację semantyczną, gdy ma dobre skojarzenia (np. „subtelne niuanse”) i negatywną orientację semantyczną, gdy ma złe skojarzenia (np. „bardzo niefrasobliwy”). W niniejszym artykule orientacja semantyczna frazy jest obliczana jako wzajemne informacje między daną frazą a słowem „doskonały” minus wzajemne informacje między daną frazą a słowem „słabo”. Recenzja jest uznawana za rekomendowaną, jeśli średnia orientacja semantyczna jej fraz jest pozytywna. Algorytm osiąga średnią dokładność 74%, gdy oceniany jest na 410 recenzjach z Epinions, pobranych z czterech różnych domen (recenzje samochodów, banków, filmów i miejsc podróży). Dokładność waha się od 84% w przypadku recenzji samochodów do 66% w przypadku recenzji filmów.
105a0b3826710356e218685f87b20fe39c64c706
Obserwator opinii: analiza i porównywanie opinii w sieci
Sieć stała się doskonałym źródłem zbierania opinii konsumenckich. Obecnie istnieje wiele witryn internetowych zawierających takie opinie, np. opinie klientów o produktach, fora dyskusyjne, grupy dyskusyjne i blogi. Ten artykuł koncentruje się na recenzjach produktów online przez klientów. Wnosi dwa wkłady. Po pierwsze, proponuje nowatorskie ramy analizowania i porównywania opinii konsumentów na temat konkurencyjnych produktów. Wdrożony zostaje również prototypowy system o nazwie Opinion Observer. System jest taki, że jednym rzutem oka na jego wizualizację użytkownik jest w stanie wyraźnie dostrzec mocne i słabe strony każdego produktu w świadomości konsumentów pod kątem różnych cech produktu. To porównanie jest przydatne zarówno dla potencjalnych klientów, jak i producentów produktów. Potencjalny klient może zobaczyć wizualne porównanie opinii konsumentów na temat tych produktów obok siebie i funkcji, co pomaga mu zdecydować, który produkt kupić. W przypadku producenta produktu porównanie umożliwia łatwe zbieranie informacji marketingowych i informacji o analizie porównawczej produktów. Po drugie, proponuje się nową technikę opartą na wyszukiwaniu wzorców językowych, aby wyodrębnić cechy produktu z zalet i wad w określonym rodzaju recenzji. Takie cechy stanowią podstawę powyższego porównania. Wyniki eksperymentalne pokazują, że technika ta jest wysoce skuteczna i znacznie przewyższa istniejące metody.
9ea16bc34448ca9d713f4501f1a6215a26746372
Przegląd praktyk testowania oprogramowania w Alberta
Organizacje zajmujące się oprogramowaniem zazwyczaj nie kładą nacisku na znaczenie testowania oprogramowania. W niniejszym artykule opisano wyniki regionalnego badania technik testowania oprogramowania i zapewniania jakości oprogramowania. Naukowcy przeprowadzili badanie latem i jesienią 2002 roku, przeprowadzając ankiety wśród organizacji zajmujących się oprogramowaniem w prowincji Alberta. Wyniki wskazują, że organizacje z siedzibą w Albercie zwykle testują mniej niż ich odpowiedniki w Stanach Zjednoczonych. Wyniki wskazują również, że organizacje zajmujące się oprogramowaniem w Albercie mają tendencję do szkolenia mniejszej liczby personelu na tematy związane z testowaniem. Ta praktyka może mieć dwojaki wpływ: po pierwsze, brak testów może ucierpieć na zdolności wykrywania trendów prowadzących do obniżonej jakości i identyfikacji pierwotnych przyczyn obniżenia jakości produktu. Ta konsekwencja jest na tyle poważna, że ​​uzasadnia rozważenie, ponieważ ogólna jakość może ucierpieć z powodu zmniejszonej zdolności do wykrywania i eliminowania wad procesu lub produktu. Po drugie, organizacji może być trudniej przyjąć metodologie, takie jak programowanie ekstremalne. Jest to znaczące, ponieważ inne badania branżowe wykazały, że wiele organizacji zajmujących się oprogramowaniem próbowało lub w ciągu najbliższych kilku lat spróbuje jakiejś formy metodyki zwinnej. Nowsze podejścia do tworzenia oprogramowania, takie jak programowanie ekstremalne, zwiększają zakres, w jakim zespoły polegają na umiejętnościach testowania. Organizacje powinny traktować swój poziom umiejętności testowania jako kluczowy wskaźnik ich gotowości do przyjęcia technik tworzenia oprogramowania, takich jak programowanie sterowane testami, programowanie ekstremalne, modelowanie zwinne lub inne metody zwinne.
746cafc676374114198c414d6426ec2f50e0ff80
Analiza i projektowanie sterowania trybem prądu średniego przy użyciu opisowo-funkcyjnego modelu równoważnego obwodu
W artykule zaproponowano model małosygnałowy do sterowania trybem średnioprądowym w oparciu o obwód zastępczy. Model wykorzystuje trójzaciskowy równoważny model obwodu oparty na zlinearyzowanej metodzie opisującej funkcji, aby uwzględnić efekt sprzężenia zwrotnego składowych częstotliwości wstęgi bocznej prądu cewki indukcyjnej. Model rozszerza wyniki uzyskane w sterowaniu w trybie prądu szczytowego na sterowanie w trybie prądu średniego. Proponowany model małosygnałowy jest dokładny do połowy częstotliwości przełączania, przewidując niestabilność subharmoniczną. Zaproponowany model jest weryfikowany za pomocą symulacji SIMPLIS i eksperymentów sprzętowych, które wykazują dobrą zgodność z wynikami pomiarów. W oparciu o zaproponowany model przedstawiono nowe wytyczne dotyczące projektowania informacji zwrotnych. Zaproponowane wytyczne projektowe porównuje się z kilkoma konwencjonalnymi, powszechnie stosowanymi kryteriami projektowymi. Projektując rampę zewnętrzną zgodnie z proponowanymi wytycznymi projektowymi, można precyzyjnie kontrolować współczynnik jakości podwójnych biegunów przy połowie częstotliwości przełączania w funkcji przekazywania sterowania na wyjście. Pomaga to projektowi pętli sprzężenia zwrotnego osiągnąć szerokie pasmo sterowania i odpowiednie tłumienie.
2b337d6a72c8c2b1d97097dc24ec0e9a8d4c2186
Korzystanie z głębokiego uczenia się do rozumienia krótkich tekstów
Klasyfikowanie krótkich tekstów do jednej kategorii lub grupowanie tekstów powiązanych semantycznie jest wyzwaniem, a znaczenie obu tych sposobów rośnie ze względu na rozwój platform mikroblogowych, cyfrowych kanałów informacyjnych i tym podobnych. Możemy dokonać tej klasyfikacji i grupowania za pomocą głębokiej sieci neuronowej, która tworzy zwartą binarną reprezentację krótkiego tekstu i może przypisać tę samą kategorię do tekstów, które mają podobne reprezentacje binarne. Problemy pojawiają się jednak, gdy w krótkich tekstach jest mało informacji kontekstowych, co utrudnia głębokiej sieci neuronowej tworzenie podobnych kodów binarnych dla tekstów powiązanych semantycznie. Proponujemy rozwiązanie tego problemu za pomocą wzbogacenia semantycznego. Osiąga się to, biorąc rzeczowniki i czasowniki używane w krótkich tekstach i generując pojęcia oraz współwystępujące słowa za pomocą tych terminów. Rzeczowniki służą do generowania pojęć w danym krótkim tekście, a czasowniki służą do przycinania niejednoznacznego kontekstu (jeśli istnieje) obecnego w tekście. Wzbogacony tekst przechodzi następnie przez głęboką sieć neuronową, aby utworzyć etykietę przewidywania dla tego krótkiego tekstu reprezentującego jego kategorię.
1d53a898850b8d055db80ba99c59c89b080dfc4c
MVOR: Wielowidokowy zestaw danych sali operacyjnej RGB-D do szacowania pozycji człowieka w 2D i 3D
Wykrywanie osób i szacowanie pozycji jest kluczowym wymogiem do opracowania inteligentnych, kontekstowych systemów wspomagających. Aby wspierać rozwój metod szacowania ludzkiej postawy i ich zastosowań w sali operacyjnej (OR), udostępniamy zestaw danych Multi-View Operating Room (MVOR), pierwszy publiczny zestaw danych zarejestrowany podczas rzeczywistych interwencji klinicznych. Składa się z 732 zsynchronizowanych klatek wielowidokowych zarejestrowanych przez trzy kamery RGB-D w hybrydowej sali operacyjnej. Obejmuje również wizualne wyzwania obecne w takich środowiskach, takie jak okluzja i bałagan. Zapewniamy parametry kalibracji kamery, ramki kolorów i głębi, ramki ograniczające ludzi oraz adnotacje pozy 2D/3D. W tym artykule przedstawiamy zbiór danych, jego adnotacje, a także wyniki bazowe z kilku ostatnich metod wykrywania osób i szacowania pozycji 2D/3D. Ponieważ musimy zamazać niektóre części obrazów, aby ukryć tożsamość i nagość w opublikowanym zbiorze danych, przedstawiamy również badanie porównawcze, w jaki sposób rozmycie wpłynęło na linie bazowe. Wyniki pokazują duży margines do poprawy i sugerują, że zestaw danych MVOR może być przydatny do porównywania wydajności różnych metod.
954d0346b5cdf3f1ec0fcc74ae5aadc5b733adc0
Poza analizą zaangażowania: jakie czynniki związane z mieszanymi danymi online pozwalają przewidzieć wyniki uczenia się uczniów?
To badanie metodą mieszaną koncentruje się na analizie uczenia się online, która jest ważnym obszarem badawczym. Bada się kilka ważnych atrybutów uczniów i ich aktywności online, aby określić, co wydaje się najlepiej sprawdzać w przewidywaniu wyższych ocen. Celem jest zbadanie relacji między stopniem studenta a kluczowymi czynnikami zaangażowania w naukę na dużej próbie z internetowego kursu biznesowego na akredytowanym amerykańskim uniwersytecie (n = 228). Ostatnie badania zdyskontowały możliwość przewidywania wyników uczenia się uczniów na podstawie analizy dużych zbiorów danych, ale niektórzy badacze odkryli kilka istotnych wskaźników. Aktualne badania zwykle wykorzystują czynniki ilościowe w uczeniu się analityki do prognozowania wyników. Niniejsze badanie rozszerza tę pracę o testowanie wspólnych ilościowych predyktorów wyników uczenia się, ale analizuje się również dane jakościowe w celu triangulacji dowodów. Na początku kursu odbywa się testowanie wiedzy z zakresu technologii informatycznych przed i po zakończeniu kursu. Zbierane są pierwsze dane ilościowe i w zależności od wyników testu hipotezy, dane jakościowe są gromadzone i analizowane za pomocą analizy tekstowej w celu wykrycia wzorców. Wskaźniki analizy zaangażowania Moodle są testowane jako predyktory w modelu. Dane są również pobierane z logów systemowych Moodle. Dane jakościowe są zbierane z esejów refleksyjnych uczniów. W rezultacie uzyskano istotny ogólny model liniowy z czterema predyktorami interakcji online, które uchwyciły 77,5% rozbieżności ocen na licencjackim kursie biznesowym.
483b94374944293d2a6d36cc1c97f0544ce3c79c
Jakie atrybuty hotelu mają znaczenie? Przegląd poprzednich i ramy dla przyszłych badań
W ostatnich dziesięcioleciach dołożono wielu starań, aby ujawnić, na jakich atrybutach hotelowych zależy gościom. Ze względu na wysokie koszty, jakie zwykle wiążą się z inwestycjami w branży hotelarskiej, warto zbadać, jakie komponenty produktu doceniają podróżni. Badanie to pokazuje, że badania atrybutów hoteli okazują się być szeroką i niezwykle niejednorodną dziedziną badań. Autorzy dokonują przeglądu badań empirycznych badających znaczenie atrybutów hoteli, przedstawiają rankingi atrybutów i sugerują ramy dla przeszłych i przyszłych projektów badawczych w tej dziedzinie, w oparciu o wymiary „koncentracja badań”, „ryzyko kontra użyteczność” oraz „kompromis kontra brak kompromisowej sytuacji kwestionowania”.
54c377407242e74e7c08e4a49e61837fd9ce2b25
O jakości energii w samolotowych systemach elektroenergetycznych o stałej częstotliwości o zmiennej prędkości
W niniejszym artykule opracowano kompleksowy model systemu elektroenergetycznego samolotu o zmiennej prędkości i stałej częstotliwości w celu zbadania charakterystyk pracy systemu, a w szczególności jakości zasilania systemu w zakresie częstotliwości pracy od 400 Hz do 800 Hz. . W pełni kontrolowany aktywny filtr mocy został zaprojektowany w celu regulacji napięcia na zaciskach obciążenia, eliminacji harmonicznych, korekcji współczynnika mocy zasilania i minimalizacji wpływu niezrównoważonych obciążeń. Algorytm sterowania aktywnym filtrem mocy (APF) opiera się na doskonałej metodzie eliminacji harmonicznych, która zapewnia trójfazowy prąd odniesienia w fazie z jego podstawowym napięciem składowej zgodnej. Proponowany APF jest zintegrowany z modelem zaawansowanego systemu zasilania elektrycznego samolotu o mocy 90 kVA w ramach operacji VSCF. Charakterystyki pracy układu badane są przy częstotliwości napięcia wyjściowego generatora wahającej się od 400 Hz do 800 Hz w różnych warunkach obciążenia. Przedstawiono kilka studiów przypadku obejmujących obciążenia DC oraz pasywne i dynamiczne obciążenia AC. Wykazano, że charakterystyki jakości energii badanego systemu elektroenergetycznego samolotu z proponowanym filtrem aktywnym są zgodne z najnowszymi normami elektrycznymi samolotów wojskowych MIL-STD-704F oraz IEEE Std. 519.
9d1940f843c448cc378214ff6bad3c1279b1911a
Segmentacja instancji uwzględniająca kształt
Odnosimy się do problemu segmentacji semantycznej na poziomie instancji, która ma na celu wspólne wykrywanie, segmentowanie i klasyfikowanie każdego pojedynczego obiektu na obrazie. W tym kontekście istniejące metody zazwyczaj proponują obiekty kandydujące, zwykle jako ramki ograniczające, i bezpośrednio przewidują maskę binarną w każdej takiej propozycji. W konsekwencji nie mogą naprawić błędów w procesie generowania obiektów kandydujących, takich jak zbyt małe lub przesunięte pudełka. W tym artykule przedstawiamy nową reprezentację segmentu obiektu opartą na transformacji odległości masek obiektu. Następnie projektujemy sieć masek obiektów (OMN) z nową architekturą dekonwolucji rezydualnej, która wnioskuje taką reprezentację i dekoduje ją do końcowej binarnej maski obiektu. Pozwala nam to przewidzieć maski, które wykraczają poza zakres ramek ograniczających, a zatem są odporne na niedokładne kandydatury obiektów. Integrujemy naszą OMN ze strukturą Multitask Network Cascade i uczymy się powstałej sieci segmentacji instancji uwzględniającej kształt (SAIS) w sposób kompleksowy. Nasze eksperymenty na zestawach danych PASCAL VOC 2012 i CityScapes pokazują zalety naszego podejścia, które przewyższa najnowocześniejsze rozwiązania zarówno w zakresie generowania propozycji obiektów, jak i segmentacji instancji.
4d0130e95925b00a2d1ecba931a1a05a74370f3f
RT-Mover: robot mobilny do pracy w trudnym terenie z prostym mechanizmem hybrydowym z kołem nożnym
W wielu dziedzinach istnieje duże zapotrzebowanie na praktyczne roboty, takie jak robot tragarz i robot do mobilności osobistej, które mogą poruszać się po nierównym terenie podczas poziomego przewożenia ładunku. Opracowaliśmy robota o nazwie RT-Mover, który wykazuje odpowiednią mobilność na wybranych typach nierównego terenu. Ma cztery napędzane koła i dwie podobne do nóg osie, ale tylko pięć aktywnych wałów. Mocną stroną tego robota jest to, że realizuje on zarówno tryb nóg, jak i tryb koła w prostym mechanizmie. W niniejszym artykule omówiono koncepcję projektowania mechanicznego. Z naciskiem na minimalizację liczby wałów napędowych zaprojektowano mechanizm do czterokołowego nadwozia ruchomego, które jest szeroko stosowane w praktycznych maszynach lokomotyw. Proponowane są również strategie poruszania się po trudnym terenie. Kinematyka, stabilność i sterowanie RT-Mover są również szczegółowo opisane. Wybrano kilka typowych przypadków nierównego terenu dla trybu koła i trybu nóg, a zdolność poruszania się robota jest oceniana za pomocą symulacji i eksperymentów. W każdym przypadku robot jest w stanie poruszać się po nierównym terenie, zachowując poziomą orientację swojej platformy.
0651f838d918586ec1df66450c3d324602c9f59e
Ataki na prywatność w mediach społecznościowych z wykorzystaniem sieci do oznaczania zdjęć: studium przypadku z Facebookiem
Użytkownicy sieci społecznościowych nieświadomie ujawniają pewne rodzaje danych osobowych, z których złośliwi napastnicy mogą czerpać korzyści, aby dopuścić się poważnych naruszeń prywatności. Ten artykuł ilościowo pokazuje, w jaki sposób prosta czynność oznaczania zdjęć w serwisie społecznościowym Facebooka może ujawnić niezwykle wrażliwe atrybuty prywatnych użytkowników. Nasze wyniki sugerują, że tagi fotograficzne mogą pomóc w przewidywaniu niektórych, ale nie wszystkich analizowanych atrybutów. Uważamy, że nasza analiza uświadamia użytkownikom istotne naruszenia ich prywatności i może pomóc w opracowaniu nowych, chroniących prywatność sposobów oznaczania zdjęć w serwisach społecznościowych.
4c9774c5e57a4b7535eb19f6584f75c8b9c2cdcc
Framework oparty na algorytmach szyfrowania RSA i AES dla usług przetwarzania w chmurze
Przetwarzanie w chmurze to nowy model obliczeniowy, w którym zasoby komunikacji obliczeniowej są dostarczane jako usługi przez Internet. Prywatność i bezpieczeństwo usług przechowywania w chmurze są bardzo ważne i stają się wyzwaniem w cloud computingu ze względu na utratę kontroli nad danymi i ich zależność od dostawcy cloud computing. Podczas gdy w systemie chmurowym przesyłana jest ogromna ilość danych, wzrasta ryzyko uzyskania dostępu do danych przez atakujących. Mając na uwadze problem budowy bezpiecznej usługi przechowywania w chmurze, proponuje się obecny schemat, który opiera się na połączeniu metod szyfrowania RSA i AES w celu udostępniania danych użytkownikom w bezpiecznym systemie chmury. Zaproponowana metoda pozwala na utrudnienie atakującym, a także skrócenie czasu przesyłania informacji między użytkownikiem a przechowywaniem danych w chmurze.
e645cbd3aaeab56858f1e752677b8792d7377d14
BCSAT: korpus wzorcowy do analizy nastrojów w języku telugu przy użyciu adnotacji na poziomie słów
Prezentowana praca ma na celu wygenerowanie systematycznie adnotowanego korpusu, który może wspierać ulepszanie zadań analizy sentymentu w języku telugu za pomocą adnotacji sentymentu na poziomie słowa. Z OntoSenseNet wydobyliśmy 11 000 przymiotników, 253 przysłówki, 8483 czasowniki, a adnotacje sentymentów są wykonywane przez ekspertów językowych. Omawiamy stosowaną metodologię dla adnotacji polaryzacji i weryfikujemy opracowany zasób. Ta praca ma na celu opracowanie korpusu porównawczego, jako rozszerzenia SentiWordNet, oraz dokładności bazowej dla modelu, w którym adnotacje leksemowe są stosowane do przewidywania nastrojów. Podstawowym celem tego artykułu jest walidacja i badanie możliwości wykorzystania algorytmów uczenia maszynowego, adnotacji sentymentalnych na poziomie słów w zadaniu automatycznej identyfikacji sentymentów. Co więcej, dokładność jest poprawiona poprzez adnotowanie bigramów wyodrębnionych z docelowego korpusu.
40f5430ef326838d5b7ce018f62e51c188d7cdd7
Wpływ prezentacji informacji w formie quizu na zrozumienie przez użytkownika
W tym artykule proponuje się prezentację informacji w formie quizu dla systemów interaktywnych jako sposób na poprawę zrozumienia przez użytkownika zadań edukacyjnych. Ponieważ charakter quizów może silnie zmotywować użytkowników do dobrowolnego zaangażowania się w interakcję i skupienia uwagi na otrzymywaniu informacji, oczekuje się, że informacje przedstawione jako quizy będą lepiej rozumiane przez użytkowników. Aby zweryfikować skuteczność podejścia, wdrożyliśmy systemy odczytów i quizów oraz przeprowadziliśmy eksperymenty porównawcze z udziałem ludzi. W zadaniu polegającym na zapamiętywaniu faktów biograficznych wyniki wykazały, że zrozumienie przez użytkownika systemu quizów było znacznie lepsze niż systemu odczytowego, a badani byli bardziej skłonni do korzystania z systemu quizów pomimo długiego czasu trwania quizów. Wskazuje to, że prezentacja informacji w formie quizu promuje zaangażowanie w interakcję z systemem, prowadząc do lepszego zrozumienia przez użytkownika.
24bbff699187ad6bf37e447627de1ca25267a770
Badania nad ciągłym audytem: analiza bibliometryczna
Niniejszy artykuł przedstawia wyniki badania bibliometrycznego dotyczącego ewolucji badań nad Ciągłym Audytem. Badanie to ma jako główną motywację do znalezienia przyczyn bardzo powolnego rozwoju badań na ten temat. Ponadto Continuous Auditing jest jedną z cech rodzącej się koncepcji Continuous Assurance. Tak więc, biorąc pod uwagę, że ciągła kontrola zapewnia liczne korzyści dla wyników organizacji, niniejsze badanie ma również na celu zrozumienie, czy istnieje związek między ewolucją badań nad ciągłym audytem a wciąż bardzo niskimi poziomami dojrzałości rozwiązań zapewniających ciągłą pewność. Badanie to pokazuje, że liczba publikacji jest znacznie zmniejszona, a powolny rozwój badań nad Ciągłym Audytem może przyczyniać się do braku dojrzałości Continuous Assurance.
abd0478f1572d8ecdca4738df3e4b3bd116d7b42
Czynniki dyspozycyjne w korzystaniu z Internetu: osobowość a styl poznawczy
Badanie to bezpośrednio sprawdza wpływ osobowości i stylu poznawczego na trzy miary korzystania z Internetu. Wyniki potwierdzają wykorzystanie osobowości — ale nie stylu poznawczego — jako zmiennej poprzedzającej. Po uwzględnieniu lęku przed komputerem, poczucia własnej skuteczności i płci, uwzględnienie w analizie czynników osobowości „Wielkiej Piątki” znacząco zwiększa możliwości predykcyjne zmiennych zależnych. Włączenie stylu poznawczego nie. Wyniki omówiono pod kątem roli osobowości i stylu poznawczego w modelach przyjęcia i wykorzystania technologii.
a64f48f9810c4788236f31dc2a9b87dd02977c3e
Ocena jakości głosu najnowszych kodeków typu open source
• Uśrednione odpowiedzi częstotliwościowe przy różnych 16 i 24 kHz. Zewnętrzna częstotliwość próbkowania nie mówi o wewnętrznej częstotliwości próbkowania. • Obsługiwane pasmo sygnału zależy od przepływności, ale nie istnieje żadna dokumentacja. Pasmo zostało znalezione eksperymentalnie • Przetestowaliśmy próbkowanie 32kHz przy długości ramki 16ms. Istnieje również 8 ms lookahead. • Wyniki pokazują, że szybkości transmisji poniżej 32 kbit/s nie nadają się do zastosowań głosowych. Jakość głosu jest znacznie gorsza niż w przypadku SILK lub szybkości transmisji wyświetlanych w stanie ustalonym
76eea8436996c7e9c8f7ad3dac34a12865edab24
Replikacja łańcuchowa zapewniająca wysoką przepustowość i dostępność
Replikacja łańcuchowa to nowe podejście do koordynowania klastrów serwerów pamięci masowej z funkcją awaryjnego zatrzymania. To podejście jest przeznaczone do obsługi usług pamięci masowej na dużą skalę, które wykazują wysoką przepustowość i dostępność bez poświęcania silnych gwarancji spójności. Oprócz naszkicowania samych protokołów replikacji łańcuchów, eksperymenty symulacyjne badają charakterystykę wydajności implementacji prototypu. Omówiono przepustowość, dostępność i kilka strategii umieszczania obiektów (w tym schematy oparte na routingu rozproszonych tablic mieszających).
522a7178e501018e442c03f4b93e29f62ae1eb64
Deep Voice 2: Multi-Speaker Neural Text-to-Speech
Wprowadzamy technikę rozszerzania neuronowego przetwarzania tekstu na mowę (TTS) z niskowymiarowymi osadzonymi głośnikami, które można trenować, aby generować różne głosy z jednego modelu. Jako punkt wyjścia pokazujemy ulepszenia w stosunku do dwóch najnowocześniejszych podejść do jednogłośnikowych neuronowych TTS: Deep Voice 1 i Tacotron. Wprowadzamy Deep Voice 2, który jest oparty na podobnym potoku co Deep Voice 1, ale zbudowany z elementów o wyższej wydajności i wykazuje znaczną poprawę jakości dźwięku w porównaniu z Deep Voice 1. Udoskonalamy Tacotron, wprowadzając wokoder neuronowy do przetwarzania końcowego oraz wykazać znaczną poprawę jakości dźwięku. Następnie demonstrujemy naszą technikę wielogłośnikowej syntezy mowy zarówno dla Deep Voice 2, jak i Tacotron na dwóch wielogłośnikowych zestawach danych TTS. Pokazujemy, że pojedynczy system neuronowy TTS może nauczyć się setek unikalnych głosów z mniej niż pół godziny danych na mówcę, osiągając jednocześnie wysoką jakość syntezy dźwięku i niemal perfekcyjnie zachowując tożsamość mówcy.
ccbcaf528a222d04f40fd03b3cb89d5f78acbdc6
Przegląd literatury na temat przewidywania chorób nerek przy użyciu techniki klasyfikacji eksploracji danych
-Ogromne ilości danych generowanych przez transakcje opieki zdrowotnej są zbyt złożone i obszerne, aby mogły być przetwarzane i analizowane tradycyjnymi metodami. Eksploracja danych zapewnia metodologię i technologię przekształcania tych stosów danych w przydatne informacje do podejmowania decyzji. Branża opieki zdrowotnej jest generalnie „bogata w informacje”, co jest niewykonalne w ręcznej obsłudze. Te duże ilości danych są bardzo ważne w dziedzinie eksploracji danych, aby wyodrębnić przydatne informacje i wygenerować relacje między atrybutami. Choroba nerek to złożone zadanie, które wymaga dużego doświadczenia i wiedzy. Choroba nerek jest cichym zabójcą w krajach rozwiniętych i jednym z głównych czynników przyczyniających się do obciążenia chorobami w krajach rozwijających się. W branży opieki zdrowotnej eksploracja danych jest wykorzystywana głównie do przewidywania chorób na podstawie zestawów danych. Techniki klasyfikacji eksploracji danych, a mianowicie drzewa decyzyjne, ANN, Naive Bayes są analizowane na zbiorze danych dotyczących chorób nerek. Słowa kluczowe — eksploracja danych, choroba nerek, drzewo decyzyjne, naiwne Bayes, ANN, K-NN, SVM, zbiór przybliżony, regresja logistyczna, algorytmy genetyczne (GA) / programowanie ewolucyjne (EP), klastrowanie
30f46fdfe1fdab60bdecaa27aaa94526dfd87ac1
Rekonstrukcja 3D w czasie rzeczywistym i śledzenie 6-DoF za pomocą kamery zdarzeń
Proponujemy metodę, która może wykonać rekonstrukcję 3D w czasie rzeczywistym z pojedynczej ręcznej kamery zdarzenia bez dodatkowego wykrywania i działa w nieustrukturyzowanych scenach, o których nie ma wcześniej wiedzy. Opiera się na trzech odsprzężonych filtrach probabilistycznych, z których każdy szacuje ruch kamery 6-DoF, gradient intensywności logarytmicznej sceny (log) i odwrotną głębię sceny względem klatki kluczowej, a my budujemy ich wykres w czasie rzeczywistym, aby śledzić i modelować na rozszerzonym lokalny obszar roboczy. Uaktualniamy również oszacowanie gradientu dla każdej klatki kluczowej do obrazu intensywności, co pozwala nam odzyskać w czasie rzeczywistym sekwencję intensywności podobną do wideo z superrozdzielczością przestrzenną i czasową z wejściowego strumienia zdarzeń o niskiej przepływności. Zgodnie z naszą najlepszą wiedzą, jest to pierwszy algorytm, który jest w stanie udowodnić, że jest w stanie śledzić ogólny ruch 6D wraz z rekonstrukcją dowolnej struktury, w tym jej intensywności, oraz rekonstrukcją wideo w skali szarości, które opiera się wyłącznie na danych z kamery zdarzeń.
892fea843d58852a835f38087bc3b5102123f567
Wiele schematów ramp
Schemat rampy A (t; k; n; S) jest protokołem służącym do dystrybucji sekretu wybranego wS wśród zbioruP składającego się z n uczestników w taki sposób, że: 1) zbiory uczestników o liczności większej lub równej k mogą zrekonstruować tajniki; 2) zbiory uczestników o liczności mniejszej lub równej tot nie mają informacji o s, natomiast 3) zbiory uczestników o liczności większej niż t i mniejszej ilości podziękowania mogą mieć „jakąś” informację o s. W tej korespondencji analizujemy wiele schematów rampy, które są protokołami do dzielenia wielu sekretów wśród zbioru P uczestników, przy użyciu różnych schematów ramp. W szczególności dowodzimy ścisłego dolnego ograniczenia wielkości akcji posiadanych przez każdego uczestnika oraz losowości dealera w schematach z wieloma rampami.
ce148df015fc488ac6fc022dac3da53c141e0ea8
Funkcja białka w medycynie precyzyjnej: głębokie zrozumienie dzięki uczeniu maszynowemu.
Medycyna precyzyjna i spersonalizowane wysiłki zdrowotne proponują wykorzystanie złożonej historii molekularnej, medycznej i rodzinnej, a także innych rodzajów danych osobowych w celu lepszego życia. Twierdzimy, że ten ambitny cel będzie wymagał zaawansowanych i wyspecjalizowanych rozwiązań uczenia maszynowego. Zwykłe wyłuskanie niektórych nisko wiszących wyników z bogactwa danych może mieć ograniczony potencjał. Zamiast tego musimy lepiej zrozumieć wszystkie części systemu, aby zdefiniować medycznie istotne przyczyny i skutki: jak poszczególne warianty sekwencji wpływają na poszczególne białka i szlaki? W jaki sposób te efekty z kolei wpływają na fenotyp zdrowotny lub chorobowy? W tym celu głębsze zrozumienie nie wypłynie po prostu z głębszego uczenia maszynowego, ale z bardziej wyraźnego skupienia się na zrozumieniu funkcji białek, sieci interakcji białek specyficznych dla kontekstu oraz wpływu zmienności na oba.
38d34b02820020aac7f060e84bb6c01b4dee665a
Wpływ zarządzania projektowaniem i zarządzania procesami na jakość: badanie empiryczne
Ž . Zarządzanie projektami i zarządzanie procesami to dwa ważne elementy całościowego wdrażania TQM zarządzania jakością. Są drastycznie różne pod względem celów doskonalenia, widoczności i technik. W tym artykule ustalamy ramy dla identyfikacji synergicznych powiązań projektowania i zarządzania procesami z jakością operacyjną ® . Ž . wyniki w trakcie procesu produkcyjnego jakość wewnętrzna i po zastosowaniu w terenie jakość zewnętrzna produktów . Poprzez badanie praktyk jakościowych w 418 zakładach produkcyjnych z wielu branż, empirycznie pokazujemy, że zarówno wysiłki w zakresie projektowania, jak i zarządzania procesem mają równie pozytywny wpływ na wewnętrzne wyniki jakościowe, takie jak złom, przeróbka, wady, wydajność i zewnętrzne wyniki jakościowe, takie jak reklamacje , gwarancja, spory sądowe, udział w rynku. Szczegółowa analiza awaryjności pokazuje, że proponowany model synergii między projektowaniem a zarządzaniem procesami sprawdza się w przypadku dużych i małych firm; dla firm o różnym poziomie doświadczenia w TQM; oraz w różnych branżach o różnym poziomie konkurencji, logistycznej złożoności produkcji lub charakterystyce procesu produkcyjnego. Wreszcie, wyniki sugerują również, że uczenie się organizacji umożliwia dojrzałym firmom TQM bardziej rygorystyczne wdrażanie zarówno wysiłków projektowych, jak i procesowych, a ich synergia pomaga tym firmom osiągnąć wyniki lepszej jakości. Wyniki te wskazują, że aby osiągnąć lepsze wyniki jakościowe, firmy muszą zrównoważyć swoje wysiłki w zakresie projektowania i zarządzania procesami oraz wytrwać w długoterminowych ® . realizacji tych wysiłków. Ponieważ badanie obejmuje wszystkie sektory produkcyjne SIC 20 do 39 , wnioski te powinny pomóc firmom w każdej branży zrewidować ich priorytety pod względem względnych wysiłków w zarządzaniu projektowaniem i zarządzaniu procesem. q 2000 Elsevier Science B.V. Wszelkie prawa zastrzeżone.
b09b43cacd45fd922f7f85b1f8514cb4a775ca5d
Podejście do wykrywania usług internetowych oparte na wyodrębnianiu wspólnych grup tematycznych
Usługi sieci Web przyciągnęły dużą uwagę projektantów i programistów aplikacji rozproszonych ze względu na ich rolę w abstrakcji i interoperacyjności między heterogenicznymi systemami oprogramowania, a rosnąca liczba aplikacji oprogramowania rozproszonego została opublikowana jako usługi sieci Web w Internecie. W obliczu rosnącej liczby usług internetowych i użytkowników usług, badacze w dziedzinie usług obliczeniowych podjęli próbę rozwiązania trudnego problemu, tj. jak szybko znaleźć odpowiednie usługi na podstawie zapytań użytkowników. Wiele wcześniejszych badań zostało zgłoszonych w tym kierunku. W niniejszym artykule przedstawiono nowatorskie podejście do wykrywania usług sieci Web oparte na modelach tematycznych. Proponowane podejście wydobywa wspólne grupy tematyczne z macierzy dystrybucji tematów usług wygenerowanej przez modelowanie tematów, a wyodrębnione wspólne grupy tematyczne można następnie wykorzystać do dopasowania zapytań użytkowników do odpowiednich usług internetowych, aby uzyskać lepszy kompromis między dokładnością wykrywania usług i liczbę kandydujących usług sieci Web. Wyniki eksperymentów przeprowadzonych na dwóch publicznie dostępnych zestawach danych pokazują, że w porównaniu z kilkoma powszechnie stosowanymi podejściami, proponowane podejście może utrzymać wydajność wykrywania usług na podwyższonym poziomie poprzez znaczne zmniejszenie liczby kandydujących usług internetowych, co prowadzi do szybszego czasu odpowiedzi .
c108437a57bd8f8eaed9e26360ee100074e3f3fc
Możliwości obliczeniowe grafowych sieci neuronowych
W niniejszym artykule rozważymy właściwości aproksymacyjne niedawno wprowadzonego modelu sieci neuronowej zwanego grafową siecią neuronową (GNN), który może być wykorzystany do przetwarzania danych wejściowych o określonej strukturze, np. grafów acyklicznych, grafów cyklicznych oraz grafów skierowanych lub nieskierowanych. Ta klasa sieci neuronowych implementuje funkcję tau(G,n) isw Rm, która odwzorowuje graf G i jeden z jego węzłów n na m-wymiarową przestrzeń euklidesową. Charakteryzujemy funkcje, które mogą być aproksymowane przez GNN, z prawdopodobieństwem do dowolnego określonego stopnia precyzji. Ten zestaw zawiera mapy, które spełniają właściwość zwaną zachowaniem rozwijającej się równoważności i zawiera większość praktycznie użytecznych funkcji na grafach; jedynym znanym wyjątkiem jest sytuacja, gdy wykres wejściowy zawiera określone wzorce symetrii, gdy rozwijająca się równoważność może nie zostać zachowana. Wynik można uznać za rozszerzenie uniwersalnej właściwości aproksymacji ustalonej dla klasycznych sieci neuronowych ze sprzężeniem do przodu (FNN). Do pokazania możliwości obliczeniowych proponowanego modelu wykorzystano kilka przykładów eksperymentalnych.
28d3ec156472c35ea8e1b7acad969b725111fe56
Hipikat: pamięć projektowa do tworzenia oprogramowania
Trudności socjologiczne i techniczne, takie jak brak nieformalnych spotkań, mogą utrudniać nowym członkom nieskolokowanych zespołów programistycznych uczenie się od bardziej doświadczonych kolegów. Aby rozwiązać tę sytuację, opracowaliśmy narzędzie o nazwie Hipikat, które zapewnia programistom wydajny i efektywny dostęp do pamięci grupowej dla projektu rozwoju oprogramowania, który jest niejawnie utworzony przez wszystkie artefakty wytworzone podczas rozwoju. Ta pamięć projektu jest budowana automatycznie z niewielką lub bez zmian w istniejących praktykach pracy. Po opisie narzędzia Hipikat, przedstawiamy dwa badania sprawdzające przydatność Hipikata w zadaniach modyfikacji oprogramowania. Jedno z badań oceniło przydatność zaleceń Hipikata na próbie 20 zadań modyfikacji wykonanych w środowisku Eclipse Java IDE podczas opracowywania wersji 2.1 oprogramowania Eclipse. Opisujemy badanie, przedstawiamy ilościowe miary wydajności Hipikata i opisujemy szczegółowo trzy przypadki, które ilustrują szereg problemów, które zidentyfikowaliśmy w wynikach. W drugim badaniu ocenialiśmy, czy programiści, którzy są nowicjuszami w projekcie, mogą skorzystać z artefaktów zalecanych przez Hipikat z pamięci projektu. Opisujemy badanie, przedstawiamy obserwacje jakościowe i sugerujemy implikacje wykorzystania pamięci projektu jako pomocy w nauce dla nowicjuszy w projekcie.
334c4806912d851ef2117e67728cfa624dbec9a3
Pakiet metryk do projektowania zorientowanego obiektowo
Biorąc pod uwagę centralną rolę, jaką rozwój oprogramowania odgrywa w dostarczaniu i stosowaniu technologii informatycznych, menedżerowie coraz częściej koncentrują się na doskonaleniu procesów w obszarze rozwoju oprogramowania. Zapotrzebowanie to zachęciło do wprowadzenia szeregu nowych i/lub ulepszonych podejść do tworzenia oprogramowania, z których być może najbardziej znaczącym jest zorientowanie obiektowe (OO). Ponadto skupienie się na doskonaleniu procesów zwiększyło zapotrzebowanie na miary oprogramowania lub metryki, za pomocą których można zarządzać procesem. Potrzeba takich wskaźników jest szczególnie dotkliwa, gdy organizacja przyjmuje nową technologię, dla której ustalone praktyki nie zostały jeszcze opracowane. Niniejsze badanie odpowiada na te potrzeby poprzez opracowanie i wdrożenie nowego zestawu metryk do projektowania obiektowego. Metryki opracowane w poprzednich badaniach, przyczyniające się do zrozumienia w tej dziedzinie procesów tworzenia oprogramowania, były generalnie przedmiotem poważnej krytyki, w tym braku podstawy teoretycznej. Za Wandem i Weberem podstawą teoretyczną wybraną dla metryk była ontologia Bunge. Opracowuje się sześć metryk projektowych, a następnie analizuje je pod kątem proponowanego zestawu zasad pomiaru Weyukera. Następnie opracowano i wdrożono zautomatyzowane narzędzie do gromadzenia danych w celu zebrania empirycznej próbki tych wskaźników w dwóch lokalizacjach terenowych w celu wykazania ich wykonalności i zasugerowania sposobów, w jakie menedżerowie mogą wykorzystać te wskaźniki do doskonalenia procesów. „A Metrics Suite For Object Oriented Design” Shyam R. Chidamber Chris F. Kemerer Warunki indeksu CR
383ca85aaca9f306ea7ae04fb0b6b76f1e393395
Dwa studia przypadków rozwoju oprogramowania open source: Apache i Mozilla
Według jego zwolenników, rozwój oprogramowania w stylu open source może z powodzeniem konkurować, a być może w wielu przypadkach wypierać tradycyjne komercyjne metody rozwoju. Aby rozpocząć badanie takich twierdzeń, analizujemy dane z dwóch głównych projektów open source, serwera WWW Apache i przeglądarki Mozilla. Korzystając z archiwów e-mail z historią zmian kodu źródłowego i raportami o problemach, określamy ilościowo aspekty udziału programistów, wielkość zespołu, własność kodu, produktywność, gęstość defektów i interwały rozwiązywania problemów dla tych projektów OSS. Rozwijamy kilka hipotez porównując projekt Apache z kilkoma projektami komercyjnymi. Następnie testujemy i udoskonalamy kilka z tych hipotez na podstawie analizy danych Mozilli. Kończymy przemyśleniami na temat perspektyw wysokowydajnych hybryd procesów komercyjnych/open source.
3ea9cd35f39e8c128f39f13148e91466715f4ee2
Program do porównywania plików
Program do porównywania plików tworzy listę różnic między dwoma plikami. Różnice te można ująć w linie, m.in. mówiąc, które wiersze należy wstawić, usunąć lub przenieść, aby przekonwertować pierwszy plik na drugi. Alternatywnie lista różnic może identyfikować poszczególne bajty. Porównania bajtowe są przydatne w przypadku plików nietekstowych, takich jak skompilowane programy, które nie są podzielone na wiersze. Przyjęte tutaj podejście polega na generowaniu tylko instrukcji wstawiania lub usuwania całych wierszy. Ponieważ linie są traktowane jako niepodzielne obiekty, pliki mogą być traktowane jako zawierające linie składające się z jednego symbolu. Innymi słowy, plik n-wierszowy jest modelowany przez ciąg n symboli. Mówiąc bardziej formalnie, problem porównywania plików można przeformułować w następujący sposób. Odległość edycji między dwoma ciągami symboli to długość najkrótszej sekwencji wstawiania i usuwania, która spowoduje konwersję pierwszego ciągu na drugi. Celem jest zatem napisanie programu, który oblicza odległość edycji między dwoma dowolnymi ciągami symboli. Ponadto program musi jawnie utworzyć możliwie najkrótszy skrypt edycyjny (tj. sekwencję poleceń edycyjnych) dla podanych ciągów. Wypróbowano inne podejścia. Na przykład Tichy ' omawia narzędzie do porównywania plików, które określa, w jaki sposób jeden plik może być skonstruowany z innego przez kopiowanie bloków wierszy i dołączanie wierszy. Jednak możliwość ekonomicznego generowania najkrótszych możliwych skryptów edycyjnych zależy w dużej mierze od repertuaru instrukcji, które są dozwolone w skryptach.2 Algorytmy porównywania plików mają wiele potencjalnych zastosowań poza tworzeniem zestawu poleceń edycyjnych do odczytania przez kogoś, kto próbuje zrozumieć ewolucja programu lub dokumentu. Na przykład skrypty edycji mogą być instrukcjami edytora tekstu, które są zapisywane w celu uniknięcia kosztów przechowywania prawie identycznych plików. Zamiast przechowywania
508119a50e3d4e8b7116c1b56a002de492b2270b
Wykrywanie obiektów z lokalizacją dźwięku 3D dla Microsoft HoloLens — oparte na głębokim uczeniu podejście zastępowania czujników dla osób niewidomych
Odnajdywanie podstawowych przedmiotów na co dzień jest trudnym, ale powszechnym zadaniem osób niewidomych. Ten artykuł przedstawia wdrożenie noszonego, opartego na głębokim uczeniu, podejścia do wykrywania obiektów w kontekście upośledzenia wzroku lub ślepoty. Prototyp ma na celu zastąpienie uszkodzonego oka użytkownika czujnikami technicznymi. Dzięki skanowaniu otoczenia prototyp zapewnia przegląd sytuacyjny obiektów wokół urządzenia. Wykrywanie obiektów zostało zaimplementowane przy użyciu modelu uczenia głębokiego działającego niemal w czasie rzeczywistym o nazwie YOLOv2. Model obsługuje detekcję 9000 obiektów. Prototyp może wyświetlać i odczytywać nazwy obiektów rozszerzonych, które można wybrać za pomocą poleceń głosowych i wykorzystać jako wskazówki dla użytkownika, wykorzystując informację zwrotną audio 3D. Zapowiedź odległości wybranego obiektu pochodzi z modelu przestrzennego HoloLens. Rozwiązanie do noszenia oferuje możliwość efektywnego lokalizowania obiektów w celu wsparcia orientacji bez intensywnego szkolenia użytkownika. Wstępna ocena objęła wskaźnik wykrywalności rozpoznawania mowy oraz czasy odpowiedzi serwera.
c0a39b1b64100b929ec77d33232513ec72089a2e
Angielski jako formalny język specyfikacji
PENG to przetwarzalny komputerowo, kontrolowany język naturalny, przeznaczony do pisania jednoznacznych i precyzyjnych specyfikacji. PENG obejmuje ścisły podzbiór standardowego języka angielskiego i jest precyzyjnie zdefiniowany przez kontrolowaną gramatykę i kontrolowany leksykon. W przeciwieństwie do innych języków kontrolowanych, autor nie musi znać wprost ograniczeń gramatycznych. ECOLE, edytor tekstu z wyprzedzeniem, wskazuje ograniczenia podczas pisania specyfikacji. Kontrolowany leksykon zawiera specyficzne dla domeny słowa treści, które autor może na bieżąco definiować oraz predefiniowane słowa funkcyjne. Specyfikacje napisane w PENG można deterministycznie przełożyć na struktury reprezentacji dyskursu, aby poradzić sobie z anaforą i presupozycjami, a także na logikę predykatów pierwszego rzędu. Aby przetestować formalne właściwości PENG, przeformułowaliśmy łamigłówkę walca Schuberta w PENG, przetłumaczyliśmy wynikową specyfikację za pomocą struktur reprezentacji dyskursu na logikę predykatów pierwszego rzędu z równością i udowodniliśmy wniosek walca za pomocą OTTER, standardowego dowodzenia twierdzenia.
f9cf246008d745f883914d925567bb36df806613
Automatyczne wciąganie i praca w pełnym cyklu dla klasy powietrznych generatorów energii wiatrowej
Powietrzne systemy energii wiatrowej mają na celu zbieranie mocy wiatrów wiejących na wysokościach wyższych niż osiągają konwencjonalne turbiny wiatrowe. Wykorzystują one latającą strukturę na uwięzi, zwykle skrzydło, i wykorzystują siłę nośną do wytwarzania energii elektrycznej. W przypadku systemów naziemnych, gdzie siła trakcyjna na uwięzi jest wykorzystywana do napędzania generatora na ziemi, realizowany jest dwufazowy cykl zasilania: jedna faza do wytwarzania mocy, gdzie linka jest rozwijana pod wysokim ciśnieniem siła trakcyjna i druga faza, w której linka jest cofana przy niższym obciążeniu. Problem sterowania skrzydłem na uwięzi w tej drugiej fazie, fazie cofania, został tutaj rozwiązany poprzez zaproponowanie dwóch możliwych strategii sterowania. Przedstawiono analizy teoretyczne, symulacje numeryczne i wyniki eksperymentalne, aby pokazać skuteczność obu podejść. Na koniec przedstawiono wyniki eksperymentalne pełnych autonomicznych cykli wytwarzania energii i porównano je z wynikami modeli opartych na pierwszej zasadzie.
53c544145d2fe5fe8c44584f44f36f74393b983e
Symulacja formacji obiektu i ludzkiej skóry w zadaniu chwytania
W artykule poruszono problem symulacji odkształceń między przedmiotami a ręką o charakterze syntetycznym podczas procesu chwytania. Metoda numeryczna oparta na teorii elementów skończonych pozwala na uwzględnienie sił czynnych palców na przedmiot i sił reaktywnych przedmiotu na palcach. Metoda poprawia kontrolę nad zachowaniem syntetycznego człowieka w systemie animacji na poziomie zadania, ponieważ dostarcza informacji o środowisku syntetycznego człowieka, a więc może być porównana do zmysłu dotyku. Teoria elementów skończonych stosowana obecnie w inżynierii wydaje się jednym z najlepszych podejść do modelowania zarówno sprężystych, jak i plastycznych odkształceń obiektów, a także wstrząsów z penetracją lub bez penetracji między odkształcalnymi obiektami. Pokazujemy, że wewnętrzne właściwości metody opartej na kompozycji/dekompozycji elementów mają wpływ na animację komputerową. Stwierdzamy również, że zastosowanie tej samej metody do modelowania zarówno obiektów, jak i ciał ludzkich poprawia modelowanie zarówno obiektów, jak i ciał ludzkich poprawia modelowanie kontaktów między nimi. Ponadto umożliwia realistyczną deformację obwiedni palców ludzkich porównywalną z istniejącymi metodami. Aby pokazać, czego możemy oczekiwać od metody, stosujemy ją do chwytania i naciskania piłki. Nasze rozwiązanie problemu chwytania opiera się na komendach przemieszczania zamiast komendach siły stosowanych w robotyce i ludzkich zachowaniach.
0eaa75861d9e17f2c95bd3f80f48db95bf68a50c
Elektromigracja i jej wpływ na projektowanie fizyczne w technologiach przyszłości
Elektromigracja (EM) jest jednym z kluczowych problemów dotyczących niezawodności połączeń w projektowaniu układów scalonych (IC). Chociaż projektanci urządzeń analogowych już od jakiegoś czasu zdają sobie sprawę z problemu EM, teraz dotyczy to również obwodów cyfrowych. Wykład dotyczy podstawowych problemów projektowych i ich wpływu na elektromigrację podczas fizycznego projektowania połączeń. Intencją jest zwiększenie granic gęstości prądu w interkonekcie poprzez zastosowanie środków hamujących elektromigrację, takich jak efekty krótkotrwałe i zbiornikowe. Wykorzystanie tych efektów na etapie projektowania może w przyszłości częściowo złagodzić problemy związane z EM w przepływach projektowych układów scalonych.
24ff5027e7042aeead47ef3071f1a023243078bb
Optymalizacja zintegrowanych sieci kosmos-powietrze-ziemia za pomocą sztucznej inteligencji
Powszechnie wiadomo, że rozwój tradycyjnych technologii komunikacji naziemnej nie może zapewnić wszystkim użytkownikom sprawiedliwych i wysokiej jakości usług ze względu na ograniczone zasoby sieciowe i ograniczone obszary zasięgu. W celu uzupełnienia połączenia naziemnego, zwłaszcza dla użytkowników na obszarach wiejskich, dotkniętych klęską żywiołową lub innych trudnych w obsłudze obszarach, do przekazywania sygnałów komunikacyjnych wykorzystano satelity, bezzałogowe statki powietrzne (UAV) i balony. Na tej podstawie zaproponowano zintegrowane sieci przestrzeń-powietrze-ziemia (SAGIN) w celu poprawy jakości doświadczeń użytkowników (QoE). Jednak w porównaniu z istniejącymi sieciami, takimi jak sieci ad hoc i sieci komórkowe, SAGIN są znacznie bardziej złożone ze względu na różne cechy trzech segmentów sieci. Aby poprawić wydajność SAGIN, naukowcy stoją przed wieloma bezprecedensowymi wyzwaniami. W tym artykule proponujemy technikę sztucznej inteligencji (AI) do optymalizacji SAGIN, ponieważ technika AI wykazała swoje główne zalety w wielu zastosowaniach. Najpierw analizujemy kilka głównych wyzwań SAGIN i wyjaśniamy, jak te problemy może rozwiązać sztuczna inteligencja. Następnie rozważymy bilans ruchu satelitarnego jako przykład i proponujemy metodę opartą na głębokim uczeniu w celu poprawy wydajności kontroli ruchu. Wyniki symulacji oceniają, że technika uczenia głębokiego może być skutecznym narzędziem do poprawy wydajności SAGIN.
2c6835e8bdb8c70a9c3aa9bd2578b01dd1b93114
RY-ON Z REGIONEM ODZIEŻOWYM
Proponujemy wirtualną metodę przymiarki opartą na generatywnych sieciach kontradyktoryjnych (GAN). Biorąc pod uwagę regiony odzieży, metoda ta pozwala nam lepiej odzwierciedlić wzór odzieży niż warunkowa analogia GAN (CAGAN), istniejąca wirtualna metoda przymierzania oparta na GAN. Nasza metoda najpierw uzyskuje region odzieży na osobie, używając modelu analizowania człowieka, którego nauczyliśmy się za pomocą zestawu danych o dużej skali. Następnie, korzystając z pozyskanego regionu, część ubrania jest usuwana z obrazu człowieka. Żądany obraz odzieży jest dodawany do pustego obszaru. Sieć uczy się, jak nakładać nową odzież na obszar ubioru ludzi. Wyniki wskazują na możliwość odzwierciedlenia wzoru ubioru. Ponadto obraz ubrania, które dana osoba pierwotnie nosi, staje się niepotrzebny podczas badania. W eksperymentach generujemy obrazy przy użyciu obrazów zebranych z Zaland (modnej witryny e-commerce).
38a70884a93dd6912404519a779cc497965feff1
Stereotypy osób z trudnościami w uczeniu się: poglądy studentów z trudnościami w uczeniu się i bez nich.
Aby zbadać możliwe przyczyny niskich wskaźników samoidentyfikacji wśród studentów z trudnościami w uczeniu się (LD), poprosiliśmy studentów (38 z LD, 100 bez LD) uczęszczających na dwa duże, publiczne, intensywnie prowadzące badania naukowe uniwersytety o wypełnienie kwestionariusza opracowanego w celu oceny stereotypów o osobach z LD i koncepcjach zdolności. Odpowiedzi zostały zakodowane w sześciu kategoriach stereotypów dotyczących rozwoju lokalnego (niska inteligencja, możliwa kompensacja, deficyt procesu, niespecyficzny stan nie do pokonania, działanie systemu i inne) oraz w trzy kategorie koncepcji inteligencji (podmiot, przyrostowy, żadna). Zgodnie z wcześniejszymi ustaleniami, najczęstszy metastereotyp zgłaszany przez osoby z obu grup dotyczył ogólnie niskich zdolności. Ponadto uczniowie z LD częściej opowiadali się za inteligencją jako stałą cechą. Podsumowując, wyniki badania mają wpływ na nasze zrozumienie czynników, które wpływają na samoidentyfikację i samoobronę na poziomie policealnym.
cc6dc5a3e8a18a0aaab7cbe8cee22bf3ac92f0bf
Metody kontroli współbieżności w rozproszonej bazie danych: przegląd i porównanie
W ostatnich latach dokonano znaczących ulepszeń w zakresie wydajności systemów rozproszonych baz danych. Rozproszona baza danych składa się z niektórych witryn, które są ze sobą połączone za pomocą połączeń sieciowych. W tym systemie, jeśli nie zostanie dokonana dobra harmonizacja pomiędzy różnymi transakcjami, może to spowodować niespójność bazy danych. W dzisiejszych czasach, ze względu na złożoność wielu witryn i metod ich łączenia, trudno jest szeregowo rozszerzać różne modele w rozproszonej bazie danych. Podstawowym celem kontroli współbieżności w rozproszonej bazie danych jest zapewnienie braku ingerencji w dostępność wspólnej bazy danych przez różne witryny. Zaproponowano zastosowanie różnych algorytmów kontroli współbieżności w rozproszonych systemach baz danych. W niniejszym artykule przedstawiono i porównano niektóre dostępne metody kontroli współbieżności w rozproszonej bazie danych.
45e2e2a327ea696411b212492b053fd328963cc3
Korzystanie z aplikacji zdrowotnych wśród użytkowników telefonów komórkowych w USA: analiza trendów według stanu choroby przewlekłej
TŁO Aplikacje mobilne mogą służyć jako interwencja w styl życia w zakresie zdrowia publicznego w celu promowania dobrego samopoczucia i łagodzenia stanów przewlekłych, jednak niewiele wiadomo na temat tego, jak osoby cierpiące na choroby przewlekłe używają lub postrzegają aplikacje mobilne. CEL Celem tego badania było zbadanie zachowań i wyobrażeń na temat aplikacji na telefony komórkowe dla zdrowia osób z chorobami przewlekłymi. METODY Dane zostały zebrane z ogólnokrajowego, przekrojowego badania 1604 użytkowników telefonów komórkowych w Stanach Zjednoczonych, które oceniało korzystanie z m-zdrowia, przekonania i preferencje. W badaniu tym zbadano korzystanie z aplikacji zdrowotnych, powód pobierania i postrzeganą skuteczność w przypadku stanu przewlekłego. WYNIKI Wśród uczestników posiadanie od 1 do 5 aplikacji zgłosiło 38,9% (314/807) osób bez dolegliwości i 6,6% (24/364) osób z nadciśnieniem. Korzystanie z aplikacji zdrowotnych 2 lub więcej razy dziennie deklarowało 21,3% (172/807) respondentów bez schorzeń, 2,7% (10/364) z nadciśnieniem, 13,1% (26/198) z otyłością, 12,3% (20 /163) z cukrzycą, 12,0% (32/267) z depresją i 16,6% (53/319) z wysokim poziomem cholesterolu. Wyniki regresji logistycznej nie wykazały istotnej różnicy w pobieraniu aplikacji zdrowotnych między osobami z chorobami przewlekłymi i bez (P>0,05). W porównaniu z osobami o słabym stanie zdrowia pobieranie aplikacji zdrowotnych było bardziej prawdopodobne wśród osób o bardzo dobrym stanie zdrowia (iloraz szans [OR] 3,80, 95% CI 2,38-6,09, P<0,001) i doskonałym stanie zdrowia (OR 4,77, 95). % CI 2,70-8,42, P<0,001). Podobnie, w porównaniu z osobami, które zgłaszają, że nigdy lub rzadko angażują się w aktywność fizyczną, pobieranie aplikacji zdrowotnych było bardziej prawdopodobne wśród osób, które zgłaszały aktywność fizyczną 1 dzień w tygodniu (OR 2,47, 95% CI 1,6-3,83, P<0,001), 2 dni na tydzień (OR 4,77, 95% CI 3,27-6,94, p<0,001), 3 do 4 dni w tygodniu (OR 5,00, 95% CI 3,52-7,10, p<0,001) i 5 do 7 dni w tygodniu (OR 4,64, 95% CI 3,11-6,92, p<0,001). Wszystkie wyniki regresji logistycznej kontrolowane pod kątem wieku, płci, rasy lub pochodzenia etnicznego. WNIOSKI Wyniki tego badania sugerują, że osoby o słabym samoocenie stanu zdrowia i niskim wskaźniku aktywności fizycznej, prawdopodobnie te, które najbardziej skorzystają na aplikacjach zdrowotnych, najrzadziej zgłaszały pobieranie i używanie tych narzędzi zdrowotnych.
71795f9f511f6948dd67aff7e9725c08ff1a4c94
Hadoop+Aparapi: Ułatwienie heterogenicznego programowania MapReduce
Ostatnio programiści zaczęli wykorzystywać możliwości GPU maszyn działających w chmurze. Korzystanie z procesorów graficznych może zmniejszyć liczbę węzłów wymaganych do wykonania obliczeń poprzez zwiększenie wydajności na węzeł. Łączymy Hadoop, szeroko stosowany framework MapReduce, z Aparapi, nowym narzędziem do konwersji Java-to-OpenCL firmy AMD. Proponujemy łatwe w użyciu API, które pozwala na łatwą implementację algorytmów MapReduce wykorzystujących GPU. Nasz interfejs API ulepsza Hadoop, jeszcze bardziej ukrywając złożoność programowania GPU, co pozwala programiście skoncentrować się na swoim algorytmie. Proponujemy również towarzyszącą refaktoryzację, która pozwala programiście określić część GPU obliczeń mapy za pomocą bardzo lekkiej adnotacji.
8cfb12304856268ee438ccb16e4b87960c7349e0
Przegląd Internetu rzeczy (IoT)
Internet, rewolucyjny wynalazek, zawsze przekształca się w nowy rodzaj sprzętu i oprogramowania, co czyni go nieuniknionym dla każdego. Formą komunikacji, którą teraz widzimy, jest człowiek-człowiek lub człowiek-urządzenie, ale Internet Rzeczy (IoT) obiecuje wspaniałą przyszłość dla Internetu, w którym rodzajem komunikacji jest maszyna-maszyna (M2M). Niniejszy dokument ma na celu przedstawienie kompleksowego przeglądu scenariusza IoT oraz przegląd jego technologii wspomagających i sieci czujników. Opisuje również sześciowarstwową architekturę IoT i wskazuje powiązane z nią kluczowe wyzwania.
a39faa00248abb3984317f2d6830f485cb5e1a0d
chemii analitycznej Czujniki do noszenia i implantacji do zastosowań biomedycznych Hatice
Mobilne technologie medyczne oferują wielką obietnicę obniżenia kosztów opieki zdrowotnej i poprawy opieki nad pacjentem. Technologie ubieralne i wszczepialne przyczyniają się do transformacji w erze zdrowia mobilnego pod względem poprawy opieki zdrowotnej i wyników zdrowotnych oraz dostarczania wskazówek w czasie rzeczywistym na temat lepszego zarządzania zdrowiem i monitorowania. W tym artykule dokonujemy przeglądu biomedycznych zastosowań noszonych i wszczepialnych urządzeń medycznych i czujników, począwszy od monitorowania po zapobieganie chorobom, a także materiałów używanych do produkcji tych urządzeń oraz standardów dotyczących bezprzewodowych urządzeń medycznych i aplikacji mobilnych. Na zakończenie omówimy niektóre z wyzwań technicznych związanych z technologią do noszenia i implantacji oraz możliwe rozwiązania w celu przezwyciężenia tych trudności.
e749e6311e25eb8081672742e78c427ce5979552
Skuteczne zastosowanie wzorców doskonalenia procesów w procesach biznesowych
Poprawa efektywności operacyjnej i wydajności procesów jest podstawowym zadaniem zarządzania procesami biznesowymi (BPM). Istnieje wiele propozycji wzorców doskonalenia procesów (PIP) jako praktyk, które mają na celu wspieranie tego celu. Wybór i wdrożenie odpowiednich PIP jest zatem ważnym warunkiem wstępnym tworzenia świadomych procesów systemów informatycznych w przedsiębiorstwach. Niemniej jednak nadal istnieje luka w zakresie walidacji PIP pod kątem ich rzeczywistej wartości biznesowej dla konkretnego scenariusza aplikacji przed poniesieniem inwestycji wdrożeniowych. W oparciu o badania empiryczne oraz doświadczenia z projektów BPM, w niniejszym artykule zaproponowano metodę sprostania temu wyzwaniu. Nasze podejście do oceny wzorców doskonalenia procesów uwzględnia rzeczywiste ograniczenia, takie jak rola starszych interesariuszy lub koszt dostosowania dostępnych systemów informatycznych. Ponadto przedstawia możliwości doskonalenia procesów, które wynikają z infrastruktury informatycznej dostępnej dla organizacji, w szczególności w odniesieniu do połączenia planowania zasobów przedsiębiorstwa z inteligencją procesów biznesowych. Nasze podejście ilustruje rzeczywisty proces biznesowy, począwszy od zarządzania zasobami ludzkimi. Ta ostatnia obejmuje wolumen transakcji około 29 000 wystąpień procesów w okresie 1 roku. Ogólnie rzecz biorąc, nasze podejście umożliwia zarówno praktykom, jak i badaczom racjonalną ocenę PIP przed podjęciem jakiejkolwiek decyzji o wdrożeniu procesu.
d5ecb372f6cbdfb52588fbb4a54be21d510009d0
Studium kolejności urodzeń, wyników w nauce i osobowości
Badanie to miało na celu zbadanie wpływu kolejności urodzeń na osobowość i wyniki w nauce wśród 120 Malezyjczyków. Poza tym miał również na celu zbadanie związku między osobowością a osiągnięciami akademickimi. Do badania włączono 30 pierworodnych, 30 średnich dzieci, 30 ostatnich i 30 jedynaków, których średnia wieku wynosiła 20,0 lat (SD = 1,85). Wyniki uczestników Sijil Pelajaran Malaysia (SPM) zostały zarejestrowane, a ich osobowość została oceniona za pomocą 10-elementowego Inwentarza Osobowości (TIPI). Wyniki wykazały, że uczestniczki o różnych pozycjach urodzeniowych nie różniły się istotnie pod względem osobowości i wyników w nauce. Jednak korelacja Pearsona wykazała, że ​​ekstrawersja korelowała dodatnio z wynikami w nauce. Słowa kluczowe kolejność urodzenia; osobowość; osiągnięcia akademickie
6193ece762c15b7d8a958dc64c37e858cd873b8a
Kompaktowa drukowana antena okresowo-logiczna z załadowanym odgałęzieniem
W artykule przedstawiono kompaktową drukowaną antenę dipolową log-periodyczną (LPDA) z rozłożonym obciążeniem indukcyjnym. Dodając króciec na górze każdego elementu, wymiar LPAD można zmniejszyć o 60%. Antena uzyskała pasmo impedancji 10GHz (8GHz-18GHz). Zgodnie z wynikami symulacji, zaprojektowana konstrukcja zapewnia stabilne wzorce promieniowania w całym zakresie częstotliwości roboczych.
2d9416485091e6af3619c4bc9323a0887d450c8a
LSDA: Wykrywanie na dużą skalę poprzez adaptację
Poważnym wyzwaniem w skalowaniu wykrywania obiektów jest trudność w uzyskaniu oznakowanych obrazów dla dużej liczby kategorii. Ostatnio głębokie konwolucyjne sieci neuronowe (CNN) okazały się wyraźnymi zwycięzcami w testach porównawczych klasyfikacji obiektów, częściowo dzięki szkoleniu z obrazami klasyfikacyjnymi oznaczonymi 1,2 mln+. Niestety tylko niewielka część tych etykiet jest dostępna do zadania wykrywania. Znacznie taniej i łatwiej jest zbierać duże ilości etykiet na poziomie obrazu z wyszukiwarek niż zbierać dane o wykrywaniu i oznaczać je precyzyjnymi ramkami ograniczającymi. W tym artykule proponujemy wykrywanie na dużą skalę poprzez adaptację (LSDA), algorytm, który uczy się różnicy między tymi dwoma zadaniami i przekazuje tę wiedzę do klasyfikatorów kategorii bez danych z adnotacjami w polu ograniczającym, zamieniając je w detektory. Nasza metoda ma potencjał, aby umożliwić wykrywanie dziesiątek tysięcy kategorii, które nie mają adnotacji z obwiednią, ale mają mnóstwo danych klasyfikacyjnych. Ocena wyzwania wykrywania ImageNet LSVRC-2013 pokazuje skuteczność naszego podejścia. Algorytm ten umożliwia nam wytworzenie detektora >7,6K przy użyciu dostępnych danych klasyfikacji z węzłów liści w drzewie ImageNet. Dodatkowo pokazujemy, jak zmodyfikować naszą architekturę, aby uzyskać szybki detektor (działający z prędkością 2 klatek na sekundę dla detektora 7.6K). Modele i oprogramowanie są dostępne na stronie lsda.berkeleyvision.org.
0f28cbfe0674e0af4899d21dd90f6f5d0d5c3f1b
Przypowieść o Google Flu: Pułapki w analizie Big Data
W lutym 2013 r. Google Flu Trends (GFT) trafiło na nagłówki gazet, ale nie z powodu, na który mieliby nadzieję kierownicy Google lub twórcy systemu śledzenia grypy. Nature poinformował, że GFT przewiduje ponad dwukrotnie większy odsetek wizyt lekarskich z powodu chorób grypopodobnych (ILI) niż Centrum Kontroli i Prewencji Chorób (CDC), które opiera swoje szacunki na raportach z nadzoru z laboratoriów w całych Stanach Zjednoczonych (1, 2). Stało się tak pomimo faktu, że GFT został zbudowany w celu przewidywania raportów CDC. Biorąc pod uwagę, że GFT jest często uważany za przykładowe wykorzystanie dużych zbiorów danych (3, 4), jakie wnioski możemy wyciągnąć z tego błędu?
cc43c080340817029fd497536cc9bd39b0a76dd2
Mobilność człowieka w podejściu ciągłym
Mobilność człowieka jest badana przy użyciu podejścia continuum, które pozwala obliczyć prawdopodobieństwo zaobserwowania podróży do dowolnego dowolnego regionu oraz przepływów między dowolnymi dwoma regionami. Rozważany opis oferuje ogólne i ujednolicone ramy, w których proponowane wcześniej modele mobilności, takie jak model grawitacyjny, model szans interweniujących i ostatnio wprowadzony model promieniowania, są naturalnie wynikiem szczególnych przypadków. Opracowano nową formę modelu promieniowania, a jego ważność zbadano przy użyciu danych obserwacyjnych oferowanych przez dojazdy do pracy uzyskane ze zbioru danych spisowych w Stanach Zjednoczonych oraz strumieni mobilności uzyskanych z danych z telefonów komórkowych zebranych w kraju zachodnioeuropejskim. Nowy paradygmat modelowania przedstawiony w tym opisie sugeruje, że złożone cechy topologiczne obserwowane w dużych sieciach mobilności i transportu mogą być wynikiem prostego procesu stochastycznego zachodzącego na niejednorodnym krajobrazie.
15e8961e8f9d1fb5060c3284a5bdcc09f2fc1ba6
Zautomatyzowana diagnostyka jaskry za pomocą cyfrowych obrazów dna oka
Jaskra to choroba nerwu wzrokowego spowodowana wzrostem ciśnienia wewnątrzgałkowego oka. Jaskra wpływa głównie na tarczę nerwu wzrokowego poprzez zwiększenie rozmiaru miseczki. Może prowadzić do ślepoty, jeśli nie zostanie wykryta i leczona we właściwym czasie. Wykrywanie jaskry za pomocą optycznej tomografii koherentnej (OCT) i tomografii siatkówkowej Heidelberga (HTZ) jest bardzo kosztowne. W pracy przedstawiono nowatorską metodę wykrywania jaskry za pomocą cyfrowych obrazów dna oka. Techniki cyfrowego przetwarzania obrazu, takie jak przetwarzanie wstępne, operacje morfologiczne i progowanie, są szeroko stosowane do automatycznego wykrywania tarczy nerwu wzrokowego, naczyń krwionośnych i obliczania cech. Wyodrębniliśmy takie cechy, jak stosunek kubka do dysku (c/d), stosunek odległości między środkiem tarczy nerwu wzrokowego a głową nerwu wzrokowego do średnicy tarczy nerwu wzrokowego oraz stosunek powierzchni naczyń krwionośnych po stronie dolno-górnej do powierzchni naczynie krwionośne po stronie nosowo-skroniowej. Te cechy są weryfikowane przez klasyfikację obrazów normalnych i obrazów jaskry za pomocą klasyfikatora sieci neuronowych. Wyniki przedstawione w niniejszej pracy wskazują, że cechy te mają znaczenie kliniczne w wykrywaniu jaskry. Nasz system jest w stanie automatycznie klasyfikować jaskrę z czułością i swoistością odpowiednio 100% i 80%.
36b3865f944c74c6d782c26dfe7be04ef9664a67
Warunkowe generatywne sieci przeciwstawne do wzmacniania mowy i weryfikacji głośników odpornej na hałas
Poprawa działania systemu mowy w hałaśliwym otoczeniu pozostaje trudnym zadaniem, a wzmacnianie mowy (SE) jest jedną ze skutecznych technik rozwiązania tego problemu. Zmotywowani obiecującymi wynikami generatywnych sieci kontradyktoryjnych (GAN) w różnych zadaniach przetwarzania obrazu, badamy potencjał warunkowych sieci GAN (cGAN) dla SE, a w szczególności korzystamy ze struktury przetwarzania obrazu zaproponowanej przez Isola i in. . [1], aby nauczyć się mapowania ze spektrogramu zaszumionej mowy na ulepszony odpowiednik. SE cGAN składa się z dwóch sieci, trenowanych w sposób kontradyktoryjny: generatora, który próbuje wzmocnić wejściowy zaszumiony spektrogram oraz dyskryminatora, który próbuje odróżnić rozszerzone spektrogramy dostarczone przez generator od czystych z bazy danych przy użyciu zaszumionego spektrogramu jako stan. Oceniamy skuteczność metody cGAN w zakresie percepcyjnej oceny jakości mowy (PESQ), krótkotrwałej obiektywnej zrozumiałości (STOI) i równego wskaźnika błędów (EER) weryfikacji mówcy (przykładowa aplikacja). Wyniki eksperymentalne pokazują, że metoda cGAN ogólnie przewyższa klasyczny algorytm SE z minimalnym błędem średniokwadratowym (STSA-MMSE) w zakresie amplitudy widmowej i jest porównywalna z podejściem SE opartym na głębokich sieciach neuronowych (DNN-SE).
bb192e0208548831de1475b11859f2114121c662
Metody zapobiegania dyskryminacji bezpośredniej i pośredniej
Dyskryminacja, obok prywatności, jest bardzo ważną kwestią przy rozważaniu prawnych i etycznych aspektów eksploracji danych. Jest bardziej niż oczywiste, że większość ludzi nie chce być dyskryminowana ze względu na płeć, religię, narodowość, wiek itd., zwłaszcza gdy te cechy są wykorzystywane do podejmowania decyzji na ich temat, takich jak danie im pracy, pożyczki, ubezpieczenia racji itp. Odkrycie takich potencjalnych błędów systematycznych i wyeliminowanie ich z danych szkoleniowych bez szkody dla ich użyteczności w podejmowaniu decyzji jest zatem wysoce pożądane. Z tego powodu do eksploracji danych wprowadzono techniki antydyskryminacyjne, w tym wykrywanie i zapobieganie dyskryminacji. Zapobieganie dyskryminacji polega na wywoływaniu wzorców, które nie prowadzą do dyskryminujących decyzji, nawet jeśli oryginalne zestawy danych treningowych są z natury stronnicze. W tym rozdziale, skupiając się na zapobieganiu dyskryminacji, przedstawiamy taksonomię klasyfikacji i badania metod zapobiegania dyskryminacji. Następnie przedstawiamy grupę wstępnie przetworzonych metod zapobiegania dyskryminacji i określamy różne cechy każdego podejścia oraz sposób, w jaki te podejścia radzą sobie z dyskryminacją bezpośrednią lub pośrednią. Przedstawiono również metryki stosowane do oceny wydajności tych aplikacji. Na koniec nasze badanie kończymy, wyliczając interesujące kierunki przyszłości w tym organie badawczym.
1935e0986939ea6ef2afa01eeef94dbfea6fb6da
Markowitz ponownie: Modele średniej wariancji w analizie portfela finansowego
Analiza portfela średniej wariancji zapewniła pierwsze ilościowe ujęcie kompromisu między zyskiem a ryzykiem. Opisujemy szczegółowo współzależność między celem a ograniczeniami w wielu wariantach jednookresowych, w tym w modelach semiwariancyjnych. Szczególny nacisk kładzie się na unikanie karania za przekroczenie wydajności. Wyniki są następnie wykorzystywane jako elementy konstrukcyjne w opracowywaniu i analizie teoretycznej modeli wielookresowych opartych na drzewach scenariuszy. Kluczową właściwością jest możliwość usunięcia nadwyżek pieniędzy w przyszłych decyzjach, co daje przybliżoną minimalizację ryzyka w dół.
1ea03bc28a14ade633d5a7fe9af71328834d45ab
Sfederowane uczenie się rozpoznawania słów kluczowych
Proponujemy praktyczne podejście oparte na sfederowanym uczeniu się, aby rozwiązywać problemy spoza domeny za pomocą stale działających wbudowanych modeli opartych na mowie, takich jak wykrywacze słów budzących. Przeprowadzamy szeroko zakrojone badanie empiryczne sfederowanego algorytmu uśredniania słowa budzącego „Hej Snips” w oparciu o zbiór danych z crowdsourcingu, który naśladuje federację użytkowników słowa budzącego. Empirycznie pokazujemy, że zastosowanie adaptacyjnej strategii uśredniania inspirowanej przez Adama w miejsce standardowego uśredniania modelu ważonego znacznie zmniejsza liczbę rund komunikacji wymaganych do osiągnięcia naszych docelowych wyników. Związane koszty komunikacji upstream na użytkownika szacuje się na 8 MB, co jest rozsądne w kontekście inteligentnych asystentów głosowych w domu. Ponadto zestaw danych wykorzystany do tych eksperymentów jest udostępniany na zasadach open source w celu wspierania dalszych przejrzystych badań nad zastosowaniem sfederowanego uczenia się do danych dotyczących mowy.
55ca165fa6091973674b12ea8fa3f1a3a1e50a6d
Wyszukiwanie drzew w oparciu o próbki z abstrakcją stanów stałych i adaptacyjnych
Przeszukiwanie drzewa oparte na próbkach (SBTS) to podejście do rozwiązywania problemów decyzyjnych Markowa oparte na konstruowaniu drzewa wyszukiwania z wyprzedzeniem przy użyciu losowych próbek z generatywnego modelu MDP. Obejmuje algorytmy wyszukiwania drzewa Monte Carlo (MCTS), takie jak UCT, a także algorytmy, takie jak próbkowanie rzadkie. SBTS dobrze nadaje się do rozwiązywania MDP z dużymi przestrzeniami stanów ze względu na względną niewrażliwość algorytmów SBTS na wielkość przestrzeni stanów. Czynnikiem ograniczającym wydajność SBTS wydaje się być wykładnicza zależność złożoności próbki od głębokości drzewa poszukiwań. Liczba próbek potrzebnych do zbudowania drzewa poszukiwań to O((|A|B)), gdzie |A| to liczba dostępnych akcji, B to liczba możliwych losowych wyników podjęcia działania, a d to głębokość drzewa. Abstrakcji stanów można użyć do zmniejszenia B poprzez agregację losowych wyników w stany abstrakcyjne. Ostatnie prace wykazały, że wyszukiwanie drzew abstrakcyjnych często działa znacznie lepiej niż wyszukiwanie drzew prowadzone w przestrzeni stanów naziemnych. W artykule przedstawiono teoretyczną i empiryczną ocenę przeszukiwania drzew z abstrakcją stanów stałych i adaptacyjnych. Wyprowadzamy ograniczenie żalu z powodu abstrakcji stanu w przeszukiwaniu drzewa, które rozkłada błąd abstrakcji na trzy składniki wynikające z właściwości abstrakcji i algorytmu wyszukiwania. Opisujemy wersje popularnych algorytmów SBTS, które używają stałych abstrakcji stanów, oraz wprowadzamy algorytm Progressive Abstraction Refinement in Sparse Sampling (PARSS), który dostosowuje swoją abstrakcję podczas wyszukiwania. Oceniamy PARSS, a także rzadkie próbkowanie ze stałymi abstrakcjami w 12 problemach eksperymentalnych i stwierdzamy, że PARSS przewyższa wyszukiwanie ze stałą abstrakcją, a wyszukiwanie z nawet bardzo niedokładnymi stałymi abstrakcjami przewyższa wyszukiwanie bez abstrakcji. Wyniki te ustanawiają stopniowe udoskonalanie abstrakcji jako obiecującą podstawę dla nowych algorytmów wyszukiwania drzew, a my proponujemy kierunki przyszłych prac w ramach stopniowego udoskonalania.
2ae40898406df0a3732acc54f147c1d377f54e2a
Zapytanie przez Komitet
Proponujemy algorytm zwany zapytaniem przez komisję, w którym komisja studentów jest szkolona na tym samym zbiorze danych. Kolejne zapytanie jest wybierane zgodnie z zasadą maksymalnej niezgody. Algorytm jest badany dla dwóch modeli zabawek: gry high-low oraz uczenia się perceptronu innego perceptronu. Gdy liczba zapytań zbliża się do nieskończoności, algorytm komitetu zapewnia asymptotycznie skończony przyrost informacji. Prowadzi to do błędu uogólnienia, który maleje wykładniczo wraz z liczbą przykładów. W przeciwieństwie do uczenia się z losowo wybranych danych wejściowych, dla których wzmocnienie informacji zbliża się do zera, a błąd uogólnienia zmniejsza się przy stosunkowo powolnym odwrotnym prawie potęgowym. Sugerujemy, że asymptotycznie skończony przyrost informacji może być ważną cechą dobrych algorytmów zapytań.
49e85869fa2cbb31e2fd761951d0cdfa741d95f3
Adaptacyjne uczenie się za pomocą kolektorów
Algorytmy wielowymiarowego uczenia się starają się znaleźć niskowymiarową parametryzację danych wielowymiarowych. W dużym stopniu opierają się na pojęciu tego, co można uznać za lokalne, jak dokładnie rozmaitość może być aproksymowana lokalnie, a także, co nie mniej ważne, jak lokalne struktury można łatać razem, aby uzyskać globalną parametryzację. W tym artykule opracowujemy algorytmy, które rozwiązują dwa kluczowe problemy w różnorodnym uczeniu się: 1) adaptacyjny wybór wielkości lokalnego sąsiedztwa podczas narzucania struktury łączności na dany zbiór punktów danych o dużej wielkości oraz 2) adaptacyjne zmniejszenie błędu systematycznego w lokalne niskowymiarowe osadzenie poprzez uwzględnienie zmian w krzywiźnie kolektora, jak również jego wzajemną zależność z gęstością próbkowania zbioru danych. Demonstrujemy skuteczność naszych metod w poprawianiu wydajności różnorodnych algorytmów uczenia się przy użyciu zarówno syntetycznych, jak i rzeczywistych zbiorów danych.
bf07d60ba6d6c6b8cabab72dfce06f203782df8f
Ekstrakcja cech w oparciu o uczenie wielorakie w celu klasyfikacji danych hiperspektralnych: przegląd postępów w uczeniu się z rozmaitościami
Postępy w wykrywaniu hiperspektralnym zapewniają nowe możliwości charakteryzowania sygnatur widmowych w szerokim zakresie systemów fizycznych i biologicznych, inspirując jednocześnie nowe metody wydobywania informacji z tych danych. Dane HSI często opierają się na nielicznych, nieliniowych rozmaitościach, których struktury geometryczne i topologiczne można wykorzystać za pomocą technik wielorakiego uczenia się. W tym artykule skupiliśmy się na wykazaniu możliwości, jakie daje wielorakie uczenie się klasyfikacji danych z teledetekcji. Jednak ograniczenia i możliwości pozostają zarówno w zakresie badań, jak i zastosowań. Chociaż wykazano, że metody te łagodzą wpływ efektów fizycznych, które wpływają na energię elektromagnetyczną przechodzącą przez atmosferę i odbijającą się od celu, nieliniowości nie zawsze są widoczne w danych, szczególnie w niższych rozdzielczościach przestrzennych, więc użytkownicy powinni zawsze oceniać wrodzoną nieliniowość w dane. Różnorodne uczenie się opiera się na danych i jako takie wyniki są silnie uzależnione od cech danych, a jedna metoda nie zapewnia konsekwentnie najlepszych wyników. Nieliniowe metody wielorakiego uczenia się wymagają dostrajania parametrów, chociaż wyniki eksperymentalne są zazwyczaj stabilne w zakresie wartości i mają wyższy narzut obliczeniowy niż metody liniowe, co jest szczególnie istotne w przypadku zestawów danych teledetekcji na dużą skalę. Istnieją również możliwości rozwoju różnorodnego uczenia się w zakresie analizy danych hiperspektralnych i wieloźródłowych pochodzących z teledetekcji. Zakłada się, że rozmaitości są z natury gładkie, założenie, że niektóre zbiory danych mogą naruszać, a dane często zawierają klasy, których widma są wyraźnie różne, co skutkuje wieloma rozmaitościami lub podrozmaitościami, których nie można łatwo zintegrować z jedną reprezentacją rozmaitości. Opracowanie odpowiednich charakterystyk, które wykorzystują unikalne cechy tych podrozmaitości dla konkretnego zbioru danych, jest otwartym problemem badawczym, dla którego wydają się przysługiwać hierarchiczne struktury rozmaitości. Do tej pory większość prac nad różnorodnym uczeniem skupiała się na wyodrębnianiu cech z pojedynczych obrazów, zakładając stacjonarność na całej scenie. Potrzebne są również badania nad wspólnym wykorzystaniem globalnych i lokalnych metod osadzania w dynamicznych, wieloczasowych środowiskach oraz integracji z częściowo nadzorowanym i aktywnym uczeniem się.
01996726f44253807537cec68393f1fce6a9cafa
Stochastyczne osadzanie sąsiadów
Opisujemy probabilistyczne podejście do zadania umieszczania obiektów, opisanych przez wektory wysokowymiarowe lub przez odmienności parami, w przestrzeni niskowymiarowej, z zachowaniem tożsamości sąsiadów. Gauss jest wyśrodkowany na każdym obiekcie w przestrzeni wielowymiarowej, a gęstości pod tym gaussem (lub podanymi różnicami) są używane do zdefiniowania rozkładu prawdopodobieństwa na wszystkich potencjalnych sąsiadach obiektu. Celem osadzania jest jak najlepsze przybliżenie tego rozkładu, gdy ta sama operacja jest wykonywana na niskowymiarowych „obrazach” obiektów. Funkcja kosztu naturalnego to suma rozbieżności Kullbacka-Leiblera, jedna na obiekt, co prowadzi do prostego gradientu do dostosowania pozycji obrazów niskowymiarowych. W przeciwieństwie do innych metod redukcji wymiarów, ta probabilistyczna konstrukcja ułatwia reprezentację każdego obiektu za pomocą mieszanki szeroko oddzielonych obrazów niskowymiarowych. Dzięki temu niejednoznaczne obiekty, takie jak wektor zliczania dokumentów dla słowa „bank”, mogą mieć wersje zbliżone do obrazów „rzeki” i „finansów”, bez zmuszania obrazów konceptów outdoorowych do umieszczania ich w pobliżu konceptów korporacyjnych.
0e1431fa42d76c44911b07078610d4b9254bd4ce
Analiza składowych nieliniowych jako problem z wartością własną jądra
Zaproponowano nową metodę wykonywania nieliniowej postaci analizy składowych głównych. Korzystając z funkcji jądra operatora całkowego, można wydajnie obliczyć główne składowe w wielowymiarowych przestrzeniach cech, związanych z przestrzenią wejściową za pomocą jakiejś nieliniowej mapy, na przykład przestrzeni wszystkich możliwych produktów pięciopikselowych w 16 16 obrazach. Podajemy wyprowadzenie metody i przedstawiamy wyniki eksperymentalne dotyczące ekstrakcji cech wielomianowych do rozpoznawania wzorów.
40cfac582cafeadb0e09e5f020e2febf5cbd4986
Wykorzystanie topologii grafów i kontekstu semantycznego na potrzeby nadzoru nad bezpieczeństwem farmakoterapii za pośrednictwem strumieni Twittera
Działania niepożądane leków (ADE) stanowią jedną z głównych przyczyn zgonów poterapeutycznych, a ich identyfikacja stanowi ważne wyzwanie współczesnej medycyny precyzyjnej. Niestety, początek i skutki ADE są często niedoceniane, co komplikuje terminową interwencję. Przy ponad 500 milionach postów dziennie Twitter jest powszechnie używaną platformą mediów społecznościowych. Powszechność codziennej wymiany danych osobowych na Twitterze sprawia, że ​​jest to obiecujący cel eksploracji danych w celu identyfikacji i interwencji ADE. Kluczowe dla tego problemu są trzy wyzwania techniczne: (1) identyfikacja najistotniejszych medycznych słów kluczowych w (hałaśliwych) tweetach, (2) mapowanie relacji lek-skutek oraz (3) klasyfikacja takich relacji jako niekorzystnych lub niepożądanych. Do modelowania zależności między lekami a skutkami ubocznymi, przedstawiając leki i skutki uboczne jako wierzchołki, używamy dwuczęściowej reprezentacji graficznej zwanej grafem efektów leku (DEG). Konstruujemy poszczególne DEG na dwóch źródłach danych. Pierwszy DEG jest skonstruowany na podstawie relacji lek-skutek znalezionych w ulotkach FDA, zapisanych w bazie danych SIDER. Drugi DEG jest konstruowany poprzez eksplorację historii użytkowników Twittera. Używamy ekstrakcji informacji opartej na słowniku, aby zidentyfikować istotne medycznie pojęcia w tweetach. Leki, wraz ze współwystępującymi objawami, wiążą się z krawędziami ważonymi odległością czasową i częstotliwością. Wreszcie, informacje z SIDER DEG są integrowane z Twitter DEG, a krawędzie są klasyfikowane jako niekorzystne lub niepowodujące przy użyciu nadzorowanego uczenia maszynowego. W zadaniu klasyfikacyjnym badamy zarówno cechy teoretyczne, jak i semantyczne. Zaproponowane podejście umożliwia identyfikację działań niepożądanych leków z dużą dokładnością z dokładnością przekraczającą 85% i F1 przekraczającą 81%. W porównaniu z wiodącymi metodami w stanie techniki, które wykorzystują samą niewzbogaconą analizę graficzną, nasza metoda prowadzi do poprawy w zakresie od 5 do 8% w zakresie wyżej wymienionych miar. Dodatkowo stosujemy naszą metodę, aby odkryć kilka ADE, które choć są obecne w literaturze medycznej i strumieniach na Twitterze, nie są reprezentowane w bazach danych SIDER. Prezentujemy model integracji DEG jako potężny formalizm do analizy zależności lek-skutek, który jest wystarczająco ogólny, aby pomieścić różne źródła danych, ale wystarczająco rygorystyczny, aby zapewnić silny mechanizm identyfikacji ADE.
292eee24017356768f1f50b72701ea636dba7982
MODELE IMPLICIT KSZTAŁTÓW DO WYKRYWANIA OBIEKTÓW W CHMURACH PUNKTÓW 3D
Przedstawiamy metodę automatycznej lokalizacji i rozpoznawania obiektów w chmurach punktów 3D reprezentujących miejskie sceny plenerowe. Metoda opiera się na niejawnym modelu kształtu (ISM), który rozpoznaje obiekty poprzez głosowanie na ich położenie w środku. Wymaga tylko kilku przykładów szkoleniowych na zajęcia, co jest ważną właściwością do praktycznego zastosowania. Wprowadzamy również i oceniamy ulepszoną wersję deskryptora obrazu spinowego, bardziej odpornego na zmiany gęstości punktów i niepewności w estymacji kierunku normalnego. Nasze eksperymenty ujawniają znaczący wpływ tych modyfikacji na wydajność rozpoznawania. Porównujemy nasze wyniki z najnowocześniejszą metodą i uzyskujemy znaczną poprawę zarówno precyzji, jak i przywoływania zestawu danych Ohio, składającego się z połączonych skanów LiDAR lotniczych i naziemnych łącznie 150 000 m obszaru miejskiego.
ffd7ac9b4fff641d461091d5237321f83bae5216
Wielozadaniowe uczenie się nadzoru ruchu morskiego na podstawie strumieni danych AIS
W świecie globalnego handlu bezpieczeństwo morskie, ochrona i wydajność to kluczowe kwestie. Proponujemy wielozadaniową platformę głębokiego uczenia się do monitorowania statków za pomocą strumieni danych systemu automatycznej identyfikacji (AIS). Łączymy powtarzające się sieci neuronowe z modelowaniem zmiennych ukrytych i osadzaniem komunikatów AIS w nowej przestrzeni reprezentacji, aby wspólnie rozwiązać kluczowe problemy, które należy rozwiązać przy rozważaniu strumieni danych AIS: ogromna ilość danych przesyłanych strumieniowo, zaszumione dane i nieregularne próbkowanie czasu. Demonstrujemy znaczenie proponowanych ram głębokiego uczenia się na rzeczywistych zestawach danych AIS w przypadku trzech zadań, a mianowicie rekonstrukcji trajektorii, wykrywania anomalii i identyfikacji typu naczynia.
6385cd92746386c82a69ffdc3bc0a9da9f64f721
Skala wyniku dysfagii i nasilenia
Skala wyników i nasilenia dysfagii (DOSS) to prosta, łatwa w użyciu, 7-punktowa skala opracowana w celu systematycznego oceniania funkcjonalnego nasilenia dysfagii na podstawie obiektywnej oceny i formułowania zaleceń dotyczących poziomu diety, poziomu niezależności i rodzaju żywienia . Wiarygodność wewnątrz- i międzysądową DOSS została ustalona przez czterech klinicystów na 135 kolejnych pacjentach, którzy przeszli zmodyfikowaną procedurę połykania baru w dużym szpitalu klinicznym. Pacjentom przypisano poziom ciężkości, poziom niezależności i poziom odżywienia w oparciu o trzy obszary najbardziej związane z ostatecznymi zaleceniami: transfer bolusowy w fazie doustnej, zatrzymanie w fazie gardłowej i ochrona dróg oddechowych. Wyniki wskazują na wysoką zgodność interraterów (90%) i intrarater (93%) z tą skalą. Sugeruje się zastosowanie DOSS w dokumentowaniu funkcjonalnych wyników połykania i stanu diety w oparciu o obiektywną ocenę.
1d18fba47004a4cf2643c41ca82f6b04904bb134
Super rozdzielczość mapy głębokości z uwzględnieniem jakości syntezy widoku
Dokładne i wysokiej jakości mapy głębi są wymagane w wielu aplikacjach 3D, takich jak renderowanie w wielu widokach, rekonstrukcja 3D i 3DTV. Jednak rozdzielczość przechwyconego obrazu głębi jest znacznie niższa niż odpowiadającego mu obrazu kolorowego, co wpływa na wydajność aplikacji. W tym artykule proponujemy nowatorską metodę super-rozdzielczości mapy głębi (SR) z uwzględnieniem jakości syntezy widoku. Proponowane podejście obejmuje głównie dwa wkłady techniczne. Po pierwsze, ponieważ przechwycona mapa głębi o niskiej rozdzielczości (LR) może być uszkodzona przez hałas i okluzję, proponujemy opartą na wiarygodności strategię łączenia map głębokości z wieloma widokami, która uwzględnia jakość syntezy widoku i korelację wywiadu, w celu udoskonalenia mapy głębokości LR . Po drugie, proponujemy metodę upsamplingu trójstronnej mapy głębi opartą na jakości syntezy widoku, która uwzględnia gładkość głębi, podobieństwo tekstur i jakość syntezy widoku w filtrze upsamplingu. Wyniki eksperymentalne pokazują, że proponowana metoda przewyższa najnowocześniejsze metody SR głębokości zarówno w przypadku superrozdzielczych map głębokości, jak i zsyntetyzowanych widoków. Ponadto proponowana metoda jest odporna na hałas i daje obiecujące wyniki w warunkach zepsucia hałasu.
922b5eaa5ca03b12d9842b7b84e0e420ccd2feee
Nowe podejście do problemów z filtrowaniem liniowym i prognozowaniem
WAŻNA klasa problemów teoretycznych i praktycznych w komunikacji i kontroli ma charakter statystyczny. Takimi problemami są: (i) przewidywanie losowych sygnałów; (ii) oddzielenie losowych sygnałów od losowego szumu; (iii) wykrywanie sygnałów o znanej postaci (impulsy, sinusoidy) w obecności przypadkowego szumu. W swojej pionierskiej pracy Wiener [1]3 wykazał, że problemy (i) i (ii) prowadzą do tak zwanego równania całkowego Wienera-Hopfa; podał również metodę (faktoryzację widmową) rozwiązania tego równania całkowego w praktycznie ważnym szczególnym przypadku statystyki stacjonarnej i widm wymiernych. Wiele rozszerzeń i uogólnień podążało za podstawową pracą Wienera. Zadeh i Ragazzini rozwiązali przypadek pamięci skończonej [2]. Równocześnie i niezależnie od Bodego i Shannona [3] podali również uproszczoną metodę [2] rozwiązania. Booton omówił niestacjonarne równanie Wienera-Hopfa [4]. Wyniki te znajdują się obecnie w standardowych tekstach [5-6]. Nieco inne podejście do tych głównych linii przedstawił niedawno Darlington [7]. Rozszerzenia do próbkowanych sygnałów, patrz np. Franklin [8], Lees [9]. Inne podejście oparte na funkcjach własnych równania WienerHopfa (które dotyczy również problemów niestacjonarnych, podczas gdy poprzednie metody w ogóle nie), zostało zapoczątkowane przez Davisa [10] i zastosowane przez wielu innych, np. Shinbrot [11], Blum [12], Pugaczow [13], Solodovnikov [14]. We wszystkich tych pracach celem jest uzyskanie specyfikacji liniowego układu dynamicznego (filtr Wienera), który realizuje predykcję, separację lub detekcję losowego sygnału.4 ——— 1 Badania te były częściowo wspierane przez U.S. Air Siłowe Biuro Badań Naukowych na podstawie umowy AF 49 (638)-382. 2 7212 Bellona Ave. 3 Liczby w nawiasach oznaczają Odnośniki na końcu artykułu. 4 Oczywiście, generalnie zadania te mogą być lepiej wykonane przez filtry nieliniowe. Obecnie jednak niewiele lub nic nie wiadomo o tym, jak uzyskać (zarówno teoretycznie, jak i praktycznie) te nieliniowe filtry. Wniesiony przez Pion Instrumentów i Regulatorów i przedstawiony na Konferencji Instrumentów i Regulatorów, 29 marca – 12 kwietnia 1959, AMERICAN SOCIETY OF MECHANIC ENGINEERS. UWAGA: Wypowiedzi i opinie wygłaszane w artykułach należy rozumieć jako indywidualne wypowiedzi ich autorów, a nie Towarzystwa. Rękopis otrzymany w siedzibie ASME, 24 lutego 1959. Papier nr 59-IRD-11. Nowe podejście do problemów z filtrowaniem liniowym i prognozowaniem

Part of BEIR-PL: Zero Shot Information Retrieval Benchmark for the Polish Language.

Link to arxiv: https://arxiv.org/pdf/2305.19840.pdf

Contact: konrad.wojtasik@pwr.edu.pl

Downloads last month
50
Edit dataset card

Models trained or fine-tuned on clarin-knext/scidocs-pl