
radlab/polish-gpt2-medium-v2
Text Generation
•
Updated
•
995
•
1
_id
stringlengths 40
40
| title
stringlengths 10
339
| text
stringlengths 0
11.8k
|
---|---|---|
632589828c8b9fca2c3a59e97451fde8fa7d188d | Hybryda algorytmu genetycznego i optymalizacji roju cząstek do projektowania sieci rekurencyjnych | W artykule zaproponowano ewolucyjną sieć rekurencyjną, która automatyzuje projektowanie rekurencyjnych sieci neuronowych/rozmytych przy użyciu nowego algorytmu ewolucyjnego uczenia się. Ten nowy ewolucyjny algorytm uczenia się opiera się na hybrydzie algorytmu genetycznego (GA) i optymalizacji roju cząstek (PSO) i dlatego nosi nazwę HGAPSO. W HGAPSO osobniki w nowym pokoleniu są tworzone nie tylko przez operację krzyżowania i mutacji, jak w GA, ale także przez PSO. Koncepcja strategii elit została przyjęta w HGAPSO, gdzie górna połowa najlepiej osiągających wyników w populacji uważana jest za elitę. Jednak zamiast bezpośrednio rozmnażać się następnemu pokoleniu, elity te są najpierw wzmacniane. Grupa utworzona przez elity jest uważana za rój, a każda elita odpowiada cząsteczce w niej zawartej. Pod tym względem elity wzmacnia PSO, operacja naśladująca zjawisko dojrzewania w przyrodzie. Te ulepszone elity stanowią połowę populacji w nowym pokoleniu, podczas gdy druga połowa jest generowana przez wykonanie operacji krzyżowania i mutacji na tych ulepszonych elitach. HGAPSO jest stosowane do rekurencyjnego projektowania sieci neuronowych/rozmytych w następujący sposób. W przypadku rekurencyjnej sieci neuronowej w pełni połączona rekurencyjna sieć neuronowa jest projektowana i stosowana do problemu wytwarzania sekwencji czasowych. W celu projektowania rekurencyjnej sieci rozmytej, rekurencyjna sieć rozmyta typu Takagi-Sugeno-Kang została zaprojektowana i zastosowana do dynamicznego sterowania instalacją. Wydajność HGAPSO jest porównywana zarówno z GA, jak i PSO w tych powtarzających się problemach projektowych sieci, co pokazuje jego wyższość. |
86e87db2dab958f1bd5877dc7d5b8105d6e31e46 | Hybrydowy EP i SQP do dynamicznej ekonomicznej wysyłki z funkcją nierównomiernego kosztu paliwa | Dynamiczna dyspozytornia ekonomiczna (DED) jest jedną z głównych funkcji obsługi i sterowania wytwarzaniem energii. Określa optymalne ustawienia jednostek wytwórczych z przewidywanym zapotrzebowaniem na obciążenie w określonym przedziale czasu. Celem jest jak najbardziej ekonomiczna eksploatacja systemu elektroenergetycznego, gdy system działa w granicach bezpieczeństwa. W artykule zaproponowano nową hybrydową metodologię rozwiązywania DED. Proponowana metoda jest opracowana w taki sposób, że proste programowanie ewolucyjne (EP) jest stosowane jako wyszukiwanie oparte na poziomie, które może dać dobry kierunek do optymalnego regionu globalnego, a lokalne wyszukiwanie sekwencyjne programowanie kwadratowe (SQP) jest używane jako precyzyjne dostrojenie w celu ustalenia optymalnego rozwiązania na końcu. Do zilustrowania skuteczności proponowanej metody w porównaniu z wynikami uzyskanymi z samych EP i SQP wykorzystano system testowy dziesięciu jednostek z funkcją niepłynnego kosztu paliwa. |
2a047d8c4c2a4825e0f0305294e7da14f8de6fd3 | Genetyczne systemy rozmyte - strojenie ewolucyjne i uczenie się baz wiedzy rozmytej | Nic dziwnego, gdy wchodzisz na tę stronę, aby dostać książkę. Jedną z popularnych obecnie książek jest ewolucyjne dostrajanie genetycznych systemów rozmytych i uczenie się baz wiedzy rozmytej. Możesz być zdezorientowany, ponieważ nie możesz znaleźć książki w księgarni w Twoim mieście. Powszechnie popularna książka będzie się szybko sprzedawać. A kiedy znajdziesz sklep, w którym kupisz książkę, będzie tak bardzo bolało, gdy jej zabraknie. Dlatego wyszukiwanie tej popularnej książki na tej stronie przyniesie Ci korzyści. Nie zabraknie ci tej książki. |
506172b0e0dd4269bdcfe96dda9ea9d8602bbfb6 | Zmodyfikowany optymalizator roju cząstek | W tym artykule wprowadzamy nowy parametr, zwany wagą bezwładności, do oryginalnego optymalizatora roju cząstek. Przeprowadzono symulacje, aby zilustrować istotny i skuteczny wpływ tego nowego parametru na optymalizator roju cząstek. |
51317b6082322a96b4570818b7a5ec8b2e330f2f | Identyfikacja i kontrola układów dynamicznych z wykorzystaniem rekurencyjnych rozmytych sieci neuronowych | W artykule zaproponowano strukturę rekurencyjnej rozmytej sieci neuronowej (RFNN) do identyfikacji i sterowania nieliniowymi systemami dynamicznymi. RFNN jest z natury powtarzającą się wielowarstwową siecią koneksjonistyczną do realizacji rozmytych wnioskowania przy użyciu dynamicznych reguł rozmytych. Relacje czasowe są osadzone w sieci poprzez dodanie połączeń sprzężenia zwrotnego w drugiej warstwie rozmytej sieci neuronowej (FNN). RFNN rozszerza podstawową zdolność FNN do radzenia sobie z problemami czasowymi. Ponadto wyniki dla silnika wnioskowania FNNfuzzy, aproksymacji uniwersalnej i analizy zbieżności zostały rozszerzone na RFNN. W przypadku problemu sterowania przedstawiamy bezpośrednie i pośrednie podejścia do sterowania adaptacyjnego z wykorzystaniem RFNN. W oparciu o podejście stabilności Lapunowa przedstawiane są rygorystyczne dowody w celu zagwarantowania zbieżności RFNN poprzez wybór odpowiednich współczynników uczenia się. Wreszcie RFNN jest stosowany w kilku symulacjach (przewidywanie szeregów czasowych, identyfikacja i sterowanie systemami nieliniowymi). Wyniki potwierdzają skuteczność RFNN. |
857a8c6c46b0a85ed6019f5830294872f2f1dcf5 | Oddzielna selektywność twarzy i ciała na zakręcie wrzecionowatym. | Ostatnie doniesienia o wysokiej reakcji na ciała w obszarze wrzecionowatej twarzy (FFA) kwestionują pogląd, że FFA jest wyłącznie selektywny dla bodźców twarzy. Zbadaliśmy to twierdzenie, przeprowadzając eksperyment funkcjonalnego rezonansu magnetycznego zarówno w standardowej (3,125 x 3,125 x 4,0 mm), jak i wysokiej rozdzielczości (1,4 x 1,4 x 2,0 mm). W obu eksperymentach regiony zainteresowania (ROI) zostały zdefiniowane przy użyciu danych z zablokowanych przebiegów lokalizatora. W ramach każdego ROI zmierzyliśmy średnią odpowiedź szczytową na różne typy bodźców w niezależnych danych z kolejnego eksperymentu związanego ze zdarzeniami. Nasze skany lokalizatora zidentyfikowały wrzecionowaty obszar ciała (FBA), obszar selektywny dla ciała, o którym ostatnio donosili Peelen i Downing (2005), który jest anatomicznie różny od pozaprążkowego obszaru ciała. FBA pokrywała się i sąsiadowała z FFA u wszystkich uczestników z wyjątkiem dwóch. Selektywność FFA względem twarzy i FBA względem ciał była silniejsza w przypadku skanów o wysokiej rozdzielczości, zgodnie z oczekiwaniami wynikającymi ze zmniejszenia efektów objętości cząstkowych. Kiedy nowe obszary ROI zostały skonstruowane dla eksperymentu o wysokiej rozdzielczości poprzez pominięcie wokseli wykazujących nakładającą się selektywność zarówno dla ciał, jak i twarzy w skanach lokalizatora, powstały ROI FFA* nie wykazywał odpowiedzi powyżej obiektów kontrolnych dla bodźców ciała, a ROI FBA* nie wykazywał żadnej odpowiedzi. reakcja nad obiektami kontrolnymi na bodźce twarzy. Wyniki te wykazują silną selektywność w odrębnych, ale przyległych obszarach zakrętu wrzecionowatego tylko dla twarzy w jednym regionie (FFA*) i tylko ciał w drugim (FBA*). |
12f107016fd3d062dff88a00d6b0f5f81f00522d | Harmonogramowanie w celu zmniejszenia zużycia energii procesora | Zużycie energii przez systemy komputerowe staje się coraz ważniejsze, zwłaszcza w przypadku systemów zasilanych bateryjnie. Monitory, dyski i procesory w tej kolejności zużywają najwięcej energii. Zmniejszenie energii zużywanej przez wyświetlacze i dyski było badane gdzie indziej; artykuł ten rozważa nową metodę redukcji energii zużywanej przez procesor. Wprowadzamy nowy wskaźnik wydajności energetycznej procesora — miliony instrukcji na dżul (MIPJ). Badamy klasę metod redukcji MIPJ, które charakteryzują się dynamiczną kontrolą szybkości zegara systemu przez planistę systemu operacyjnego. Samo zmniejszenie częstotliwości taktowania nie zmniejsza MIPJ, ponieważ aby wykonać tę samą pracę, system musi działać dłużej. Dostępnych jest jednak wiele metod zmniejszania energii przy zmniejszonej szybkości zegara, takich jak zmniejszenie napięcia [Chandrakasan i wsp. 1992][Horowitz 1993] lub zastosowanie logiki odwracalnej [Younis i Knight 1993] lub adiabatycznej [Athas i wsp. 1994]. .
Jakie są właściwe algorytmy planowania, aby wykorzystać zmniejszoną częstotliwość taktowania, zwłaszcza w przypadku aplikacji wymagających coraz większej liczby instrukcji na sekundę? Rozważamy kilka metod dynamicznego zmieniania szybkości zegara pod kontrolą systemu operacyjnego i badamy wydajność tych metod w odniesieniu do śladów stacji roboczych. Podstawowym rezultatem jest to, że dostosowując częstotliwość taktowania z drobnym ziarnem, można zaoszczędzić znaczną ilość energii procesora z ograniczonym wpływem na wydajność. |
1ae0ac5e13134df7a0d670fc08c2b404f1e3803c | Podejście do eksploracji danych do przewidywania lokalizacji w środowiskach mobilnych | Przewidywanie mobilności jest jednym z najważniejszych zagadnień, które należy zbadać w celu zarządzania mobilnością w mobilnych systemach komputerowych. W niniejszym artykule proponujemy nowy algorytm do przewidywania następnego ruchu między komórkami użytkownika mobilnego w sieci Personal Communication Systems. W pierwszej fazie naszego trójfazowego algorytmu wzorce mobilności użytkowników są wydobywane z historii trajektorii użytkowników mobilnych. W drugiej fazie z tych wzorców wyodrębniane są reguły mobilności, a w ostatniej fazie prognozy mobilności są realizowane przy użyciu tych reguł. Wydajność proponowanego algorytmu jest oceniana poprzez symulację w porównaniu z dwiema innymi metodami predykcji. Wyniki wydajności uzyskane pod względem precyzji i przypomnienia wskazują, że nasza metoda może dokonywać dokładniejszych prognoz niż inne metody. 2004 Elsevier B.V. Wszelkie prawa zastrzeżone. |
7d3c9c4064b588d5d8c7c0cb398118aac239c71b | $\mathsf {pSCAN}$ : Szybkie i dokładne grupowanie wykresów strukturalnych | Zajmujemy się problemem grupowania grafów strukturalnych, podstawowym problemem w zarządzaniu i analizie danych grafowych. Biorąc pod uwagę nieskierowany graf nieważony, grupowanie grafów strukturalnych polega na przypisaniu wierzchołków do klastrów, a także na identyfikacji zbiorów wierzchołków środkowych i wierzchołków odstających, tak że wierzchołki w tym samym klastrze są gęsto ze sobą połączone, podczas gdy wierzchołki w różnych klastrach są luźno połączony. W tym artykule opracowujemy nowy dwuetapowy paradygmat grupowania skalowalnych grafów strukturalnych w oparciu o nasze trzy obserwacje. Następnie przedstawiamy <inline-formula> <tex-math notation="LaTeX">$\mathsf {pSCAN}$</tex-math><alternatives> <inline-graphic xlink:href="chang-ieq2-2618795 .gif"/></alternatives></inline-formula> w ramach paradygmatu, którego celem jest zmniejszenie liczby obliczeń podobieństwa strukturalnego i zaproponowanie technik optymalizacji w celu przyspieszenia sprawdzania, czy dwa wierzchołki są podobne do struktury. <inline-formula><tex-math notation="LaTeX">$\mathsf {pSCAN}$ </tex-math><alternatives><inline-graphic xlink:href="chang-ieq3-2618795.gif"/> </alternatives></inline-formula> wyświetla dokładnie te same klastry, co istniejące podejścia <inline-formula><tex-math notation="LaTeX">$\mathsf {SCAN}$ </tex-math><alternatives> <inline-graphic xlink:href="chang-ieq4-2618795.gif"/></alternatives></inline-formula> i <inline-formula><tex-math notation="LaTeX">$\mathsf {SKANUJ \text{++}}$</tex-math><alternatives> <inline-graphic xlink:href="chang-ieq5-2618795.gif"/></alternatives></inline-formula> i udowodnimy że <inline-formula><tex-math notation="LaTeX">$\mathsf {pSCAN}$</tex-math><alternatives> <inline-graphic xlink:href="chang-ieq6-2618795.gif"/ ></alternatives></inline-formula> jest optymalnym dla najgorszego przypadku. Ponadto proponujemy skuteczne techniki aktualizacji klastrów, gdy graf wejściowy zmienia się dynamicznie, a także rozszerzamy nasze techniki o inne miary podobieństwa, np. podobieństwo Jaccarda. Badania wydajności na dużych wykresach rzeczywistych i syntetycznych pokazują skuteczność naszego nowego podejścia i technik dynamicznego utrzymania klastrów. Warto zauważyć, że w przypadku wykresu na Twitterze z 1 miliardem krawędzi nasze podejście zajmuje 25 minut, podczas gdy najnowocześniejsze podejście nie może zakończyć się nawet po 24 godzinach. |
305c45fb798afdad9e6d34505b4195fa37c2ee4f | Synteza, właściwości i zastosowania nanocząstek żelaza. | Żelazo, najbardziej wszechobecny z metali przejściowych i czwarty najpowszechniejszy pierwiastek w skorupie ziemskiej, jest strukturalnym kręgosłupem naszej nowoczesnej infrastruktury. Ironiczne jest zatem to, że jako nanocząsteczka żelazo zostało nieco zaniedbane na rzecz własnych tlenków, a także innych metali, takich jak kobalt, nikiel, złoto i platyna. To niefortunne, ale zrozumiałe. Reaktywność żelaza jest ważna w zastosowaniach makroskopowych (zwłaszcza rdzewienia), ale jest dominującym problemem w nanoskali. Od dawna wiadomo, że drobnoziarniste żelazo jest piroforyczne, co jest głównym powodem, dla którego nanocząstki żelaza nie zostały do tej pory dokładnie zbadane. Ta ekstremalna reaktywność tradycyjnie czyniła nanocząsteczki żelaza trudnymi do zbadania i niewygodnymi w zastosowaniach praktycznych. Żelazo ma jednak wiele do zaoferowania w nanoskali, w tym bardzo silne właściwości magnetyczne i katalityczne. Ostatnie prace zaczęły wykorzystywać potencjał żelaza, a prace w tej dziedzinie wydają się kwitnąć. |
9f234867df1f335a76ea07933e4ae1bd34eeb48a | Automatyczna ocena tłumaczenia maszynowego: podejście jakościowe | REKLAMA. La Consulta d'aquesta tesi queda condicionada a l'acceptació de les següents condicions d'ús: La difusió d'aquesta tesi per mitjà del service TDX (www.tdx.cat) i través del Dipòsit Digital de la UB (diposit. .edu) ha estat autoritzada pels titulars dels drets de propietat intel·lectual únicament per a usos privats emmarcats en activitats d'investigació i docència. No s'autoritza la seva reproducció amb finalitats de lucre ni la seva difusió i posada a disposició des d'un lloc aliè al servicei TDX ni al Dipòsit Digital de la UB. No s’autoritza la presentació del seu contingut en una finestra o marc alie a TDX o al Dipòsit Digital de la UB (framing). Aquesta reserva de drets afecta tant al resum de presentació de la tesi com als seus continguts. En la utilització o cita de part de la tesi és obligat indicar el nom de la persona autora. |
5ebfcd50c56e51aada28ccecd041db5e002f5862 | Ścieżka Gualzru do świata reklamy | Artykuł opisuje genezę Gualzru, robota na zlecenie dużej hiszpańskiej firmy technologicznej do świadczenia usług reklamowych w otwartych przestrzeniach publicznych. Gualzru musi stać przy interaktywnym panelu obserwując przechodzących ludzi iw pewnym momencie wybrać obiecującą kandydatkę i podejść do niej w celu zainicjowania rozmowy. Po krótkiej interakcji werbalnej robot ma przekonać przechodnia, aby wrócił do panelu, pozostawiając resztę zadania sprzedażowego wbudowanemu w niego interaktywnemu oprogramowaniu. Cały proces projektowania i budowy trwał niespełna trzy lata pracy zespołu składającego się z pięciu grup w różnych lokalizacjach geograficznych. Opisujemy tutaj wnioski wyciągnięte z tego okresu, z różnych punktów widzenia, w tym sprzętu, oprogramowania, decyzji architektonicznych i kwestii współpracy zespołowej. |
73a7144e072356b5c9512bd4a87b22457d33760c | Modele odpowiedzi na leczenie dla kontrfaktycznego rozumowania z interwencjami o wartości ciągłej w czasie ciągłym | Efekty leczenia można oszacować na podstawie danych obserwacyjnych jako różnicę w potencjalnych wynikach. W tym artykule podejmujemy wyzwanie, jakim jest oszacowanie potencjalnego wyniku, gdy poziomy dawek terapeutycznych mogą się stale zmieniać w czasie. Ponadto zmienna wynikowa może nie być mierzona z regularną częstotliwością. Zaproponowane przez nas rozwiązanie przedstawia krzywe odpowiedzi na leczenie przy użyciu liniowych, niezmiennych w czasie systemów dynamicznych — zapewnia to elastyczne sposoby modelowania odpowiedzi w czasie na wysoce zmienne krzywe dawki. Co więcej, w przypadku danych wielowymiarowych proponowana metoda: odkrywa wspólną strukturę odpowiedzi na leczenie i linii bazowej w wielu markerach; i elastycznie modeluje trudną strukturę korelacji zarówno w obrębie sygnałów, jak i w czasie. W tym celu opieramy się na strukturze wielowyjściowych procesów Gaussa. Na symulowanym i wymagającym zestawie danych klinicznych wykazaliśmy znaczny wzrost dokładności w porównaniu z najnowocześniejszymi modelami. |
c2aa3c7fd59a43c949844e98569429261dba36e6 | Planarna antena śrubowa o polaryzacji kołowej | Przedstawiono planarną antenę śrubową do uzyskania szerokopasmowego promieniowania końcowego o polaryzacji kołowej przy zachowaniu bardzo niskiego profilu. Spirala jest formowana za pomocą drukowanych pasków z prostymi połączeniami realizowanymi przez platerowane przelotki. Prądy płynące po paskach i wzdłuż przelotek spirali przyczyniają się odpowiednio do polaryzacji poziomej i pionowej. Poza tym prąd na płaszczyźnie uziemienia jest wykorzystywany do osłabienia silnej amplitudy poziomego pola elektrycznego generowanego przez to na listwach. W ten sposób można uzyskać dobrą polaryzację kołową. Co więcej, stosuje się stożkową spiralę i przewodzące ścianki boczne, aby poszerzyć szerokość pasma współczynnika osiowego (AR), a także polepszyć charakterystykę promieniowania końcowego płomienia. Zaprojektowana antena pracuje na częstotliwości środkowej 10 GHz. Symulowane wyniki pokazują, że planarna antena spiralna osiąga szerokie pasmo impedancji (|S11| <; -10 dB) od 7,4 do 12,8 GHz (54%) i 3-dB AR od 8,2 do 11,6 GHz (34%) przy zachowaniu grubość tylko 0,11λ0 przy częstotliwości środkowej. Prototyp proponowanej anteny jest produkowany i testowany. Zmierzone wyniki są w dobrej zgodności z symulowanymi. |
befdf0eb1a3d2e0d404e7fbdb43438be7ae607e5 | Zmiany składu ciała po bardzo niskokalorycznej diecie ketogenicznej u osób z otyłością oceniane za pomocą 3 standardowych metod. | Kontekst
Częstymi problemami związanymi ze stosowaniem niskokalorycznych diet w leczeniu otyłości jest zmniejszenie masy beztłuszczowej, głównie masy mięśniowej, która występuje wraz z utratą masy tłuszczowej (FM), oraz określenie najlepszych metodologii oceny zmian składu ciała.
Cel
Badanie to miało na celu ocenę zmian w składzie ciała pacjentów otyłych wywołanych dietą bardzo niskokaloryczną (VLCK) oraz porównanie 3 różnych metodologii stosowanych do oceny tych zmian.
Projekt
Dwudziestu otyłych pacjentów stosowało dietę VLCK przez 4 miesiące. Ocenę składu ciała przeprowadzono za pomocą dwuenergetycznej absorpcjometrii rentgenowskiej (DXA), wieloczęstotliwościowej impedancji bioelektrycznej (MF-BIA) oraz pletyzmografii przemieszczeń powietrza (ADP). Oceniono również siłę mięśni. Pomiary przeprowadzono w 4 punktach dopasowanych do faz ketozy (bazowa, maksymalna ketoza, ketoza zanikająca i poza ketozą).
Wyniki
Po 4 miesiącach dieta VLCK spowodowała spadek masy ciała o -20,2 ± 4,5 kg, kosztem redukcji masy tłuszczowej (FM) o -16,5 ± 5,1 kg (DXA), -18,2 ± 5,8 kg (MF-BIA) i -17,7 ± 9,9 kg (ADP). Zaobserwowano również znaczny spadek w trzewnej FM. Łagodne, ale wyraźne zmniejszenie masy beztłuszczowej nastąpiło przy maksymalnej ketozie, głównie w wyniku zmian w całkowitej ilości wody w organizmie, a następnie zostało odzyskane. Nie zaobserwowano zmian w sile mięśni. Wykazano silną korelację między trzema metodami oceny składu ciała.
Wniosek
Utrata masy ciała spowodowana dietą VLCK odbywała się głównie kosztem FM i masy trzewnej; zachowana została masa i siła mięśni. Spośród 3 stosowanych technik składu ciała metoda MF-BIA wydaje się wygodniejsza w warunkach klinicznych. |
506d4ca228f81715946ed1ad8d9205fad20fddfe | Pomiar percepcji równowagi obrazowej na pierwszy rzut oka za pomocą japońskiej kaligrafii | Zgodnie z teorią sztuki równowaga obrazowa działa w celu ujednolicenia elementów obrazu w spójną kompozycję. W przypadku kompozycji asymetrycznych uważa się, że elementy wyważające są podobne do wyważania ciężarów mechanicznych w ramach osi symetrii. Ocena preferencji dla równowagi (APB), oparta na strukturze osi symetrii sugerowanej w Arnheim R, 1974 Art and Visual Perception: A Psychology of the Creative Eye (Berkeley, CA: University of California Press), z powodzeniem dopasowano oceny równowagi przedmiotów obrazy kształtów geometrycznych w nieograniczonym czasie oglądania. Przeanalizujemy teraz obrazową percepcję równowagi japońskiej kaligrafii podczas pierwszej fiksacji, odizolowanej od późniejszych procesów poznawczych, porównując pomiary APB z wynikami z zadań oceny równowagi i porównań. Wyniki pokazują wysoką korelację międzyzadaniową, ale niską korelację z APB. Powtórzyliśmy zadanie oceny, rozszerzając zestaw obrazów tak, aby obejmował pięć obrotów każdego obrazu, porównując postrzeganie równowagi między grupami artystów i początkujących uczestników. Rotacja nie ma wpływu na obliczanie balansu APB, ale dramatycznie wpływa na ocenę balansu, szczególnie dla ekspertów od sztuki. Analizujemy różnorodność efektów rotacji i sugerujemy, że zamiast zależeć od rozmiaru i położenia elementu względem osi symetrii, przetwarzanie pierwszego balansu fiksacji pochodzi z procesów globalnych, takich jak grupowanie linii i kształtów, rozpoznawanie obiektów, preferencje dla elementów poziomych i pionowych, zamknięcie i zakończenie, wzmocnione symetrią pionową. |
772205182fbb6ad842df4a6cd937741145eeece0 | Palenie i rak szyjki macicy: zbiorcza analiza wieloośrodkowego badania kliniczno-kontrolnego IARC | Wstęp: Od dawna podejrzewa się, że palenie jest czynnikiem ryzyka raka szyjki macicy. Jednak nie wszystkie poprzednie badania były właściwie kontrolowane pod kątem wpływu zakażenia wirusem brodawczaka ludzkiego (HPV), które zostało obecnie uznane za praktycznie niezbędną przyczynę raka szyjki macicy. Aby ocenić rolę palenia tytoniu jako kofaktora progresji od zakażenia HPV do raka, przeprowadziliśmy zbiorczą analizę 10 wcześniej opublikowanych badań kliniczno-kontrolnych. Niniejsza analiza jest częścią serii analiz kofaktorów HPV w etiologii raka szyjki macicy. Metody: Zebrano dane z ośmiu badań kliniczno-kontrolnych nad inwazyjnym rakiem szyjki macicy (ICC) i dwoma rakiem in situ (CIS) na czterech kontynentach. Wszystkie badania wykorzystywały podobny protokół i kwestionariusze oraz obejmowały opartą na PCR ocenę DNA HPV w rozmazach cytologicznych lub próbkach biopsyjnych. Do analizy włączono tylko osoby z dodatnim wynikiem DNA HPV. Łącznie przeanalizowano 1463 przypadki płaskonabłonkowego ICC, 211 przypadków CIS, 124 przypadki gruczolakowato- lub płaskonabłonkowego ICC i 254 kobiety z grupy kontrolnej. Połączone ilorazy szans (OR) i 95% przedziały ufności (CI) oszacowano przy użyciu modeli regresji logistycznej kontrolujących czynniki pomieszania płci i nieseksualne. Wyniki: Wśród kobiet HPV-dodatnich występowało zwiększone ryzyko palenia tytoniu (OR 2,17 95% CI 1,46–3,22). Analizując wyniki według typu histologicznego, stwierdzono nadmierne ryzyko wśród przypadków raka płaskonabłonkowego u obecnych palaczy (OR 2,30, 95% CI 1,31–4,04) i byłych palaczy (OR 1,80, 95% CI 0,95–3,44). Nie wykryto wyraźnego wzoru związku z ryzykiem dla gruczolakoraków, chociaż liczba przypadków z tym typem histologicznym była ograniczona. Wnioski: Palenie zwiększa ryzyko raka szyjki macicy wśród kobiet HPV-dodatnich. Wyniki naszego badania są zgodne z kilkoma wcześniej przeprowadzonymi badaniami nad paleniem i rakiem szyjki macicy, które były odpowiednio kontrolowane pod kątem infekcji HPV. Ostatnio rosnące trendy palenia wśród młodych kobiet mogą mieć poważny wpływ na zachorowalność na raka szyjki macicy w nadchodzących latach. |
d2018e51b772aba852e54ccc0ba7f0b7c2792115 | Wykrywanie oddechu: w kierunku zminiaturyzowanego, nadającego się do noszenia, zasilanego bateryjnie systemu monitorowania | W niniejszym artykule przeanalizowano główne wyzwania związane z nieinwazyjnym, ciągłym, przenośnym i długotrwałym monitorowaniem oddechu. Charakterystyki akustycznego sygnału oddechowego z miniaturowego czujnika są badane w obecności źródeł hałasu i artefaktów zakłócających, które wpływają na sygnał. Na podstawie tych wyników opracowano algorytm wykrywania oddychania. Możliwe jest zaimplementowanie algorytmu na pojedynczym układzie scalonym, dzięki czemu nadaje się on do miniaturowego urządzenia czujnikowego. Algorytm jest testowany w obecności źródeł hałasu na pięciu badanych i wykazuje średni wskaźnik sukcesu 91,3% (połączenie prawdziwych pozytywów i prawdziwych negatywów). |
cc76f5d348ab6c3a20ab4adb285fc1ad96d3c009 | Sterowana mową trójwymiarowa animacja twarzy z niejawną świadomością emocjonalną: podejście do głębokiego uczenia się | Wprowadzamy podejście sieci neuronowej rekurencyjnej pamięci krótkotrwałej (LSTM-RNN) do animacji twarzy w czasie rzeczywistym, która automatycznie szacuje rotację głowy i aktywacje jednostek czynności twarzy mówcy na podstawie tylko jej wypowiedzi. W szczególności zmieniające się w czasie kontekstowe nieliniowe mapowanie między strumieniem audio a wizualnymi ruchami twarzy jest realizowane poprzez trenowanie sieci neuronowej LSTM na dużym korpusie danych audiowizualnych. W tej pracy wyodrębniamy zestaw cech akustycznych z wejściowego dźwięku, w tym spektrogram ze skalą Mel, współczynniki cepstralne częstotliwości Mel i chromagram, które mogą skutecznie reprezentować zarówno postęp kontekstowy, jak i intensywność emocjonalną mowy. Wyjściowe ruchy twarzy charakteryzują się rotacją 3D i mieszaniem ciężarów ekspresji modelu blendshape, które można wykorzystać bezpośrednio do animacji. Tak więc, mimo że nasz model nie przewiduje wyraźnie stanów afektywnych mówcy, jego manifestacja emocjonalna jest odtwarzana poprzez wagę ekspresji modelu twarzy. Eksperymenty na zbiorze danych oceny różnych mówców w szerokim zakresie stanów afektywnych pokazują obiecujące wyniki naszego podejścia do animacji twarzy opartej na mowie w czasie rzeczywistym. |
1b2a0e8af5c1f18e47e71244973ce4ace4ac6034 | Skompresowane nieparametryczne modelowanie języka | Hierarchiczne metody Pitman-Yor Process są przekonującymi metodami uczenia modeli językowych, przewyższającymi metody oparte na szacowaniu punktowym. Jednak modele te pozostają niepopularne ze względu na problemy z wnioskowaniem obliczeniowym i statystycznym, takie jak zużycie pamięci i czasu, a także słabe mieszanie próbnika. W tej pracy proponujemy nowatorski framework, który reprezentuje model HPYP w sposób zwarty przy użyciu skompresowanych drzew sufiksów. Następnie opracowujemy wydajny schemat wnioskowania przybliżonego w tym frameworku, który ma znacznie mniejszy ślad pamięci w porównaniu z pełnym HPYP i jest szybki w czasie wnioskowania. Wyniki eksperymentalne pokazują, że nasz model można zbudować na znacznie większych zestawach danych w porównaniu z poprzednimi modelami HPYP, będąc o kilka rzędów wielkości mniejszymi, szybkimi do uczenia i wnioskowania oraz przewyższającymi zawiłość najnowocześniejszego Zmodyfikowanego Kneser- Wygładzanie LM na podstawie liczby Neya nawet o 15%. |
c9d41f115eae5e03c5ed45c663d9435cb66ec942 | Rozcinanie i ponowne składanie algorytmów korekcji kolorów do łączenia obrazów | Niniejszy artykuł wprowadza nowe ramy kompozycyjne do klasyfikacji metod korekcji kolorów według ich dwóch głównych jednostek obliczeniowych. Struktura została wykorzystana do analizy piętnastu spośród najlepszych algorytmów korekcji koloru, a tak uzyskane jednostki obliczeniowe, z dodaniem czterech nowych jednostek specjalnie zaprojektowanych do tej pracy, zostały następnie złożone w kombinatoryczny sposób, aby stworzyć około stu różnych metod korekcji koloru, z których większość nigdy wcześniej nie była brana pod uwagę. Powyższe metody korekcji kolorów przetestowano na trzech różnych istniejących zestawach danych, w tym na rzeczywistych i sztucznych przekształceniach kolorów, a także na nowym zestawie danych par obrazów rzeczywistych sklasyfikowanych według rodzaju zmian kolorów wywołanych przez określone ustawienia akwizycji. W odróżnieniu od poprzednich ocen, szczególny nacisk położono na skuteczność w rzeczywistych zastosowaniach, takich jak mozaikowanie i łączenie obrazów, gdzie wymagana jest odporność na silne niewspółosiowość obrazu i efekty rozpraszania światła. Po raz pierwszy przedstawiono dowody eksperymentalne w postaci najnowszych percepcyjnych metryk jakości obrazu, o których wiadomo, że są najbliższe ludzkiemu osądowi. Wyniki porównawcze pokazują, że kombinacje nowych jednostek obliczeniowych są najskuteczniejsze w rzeczywistych scenariuszach szycia, niezależnie od konkretnego źródła zmiany koloru. Z drugiej strony, w przypadku dokładnego wyrównania obrazu i zmian sztucznych kolorów, najlepiej działające metody wykorzystują albo jedną z nowych jednostek obliczeniowych, albo składają się ze świeżych kombinacji istniejących jednostek. |
b579366db457216b0548220bf369ab9eb183a0cc | Analiza dotycząca znaczenia analityki zgłoszeń i analizy defektów z perspektywy jakości oprogramowania | Oprogramowanie, mimo że niematerialne, powinno podlegać ewolucji, aby dopasować się do ciągle zmieniających się scenariuszy świata rzeczywistego. Każdy problem, z którym boryka się zespół ds. rozwoju i serwisu, bezpośrednio przekłada się na jakość oprogramowania. Zgodnie z powiązaną pracą, bardzo niewiele badań jest prowadzonych w dziedzinie biletu i związanego z nim incydentu; część konserwacji naprawczej. Dogłębne badania biletów na incydenty należy traktować jako krytyczne, ponieważ dostarczają informacji związanych z rodzajem czynności konserwacyjnych, które są wykonywane w dowolnym znaczniku czasu. Dlatego klasyfikowanie i analizowanie biletów staje się krytycznym zadaniem w zarządzaniu operacjami usługi, ponieważ z każdym incydentem będzie powiązana umowa o gwarantowanym poziomie usług. Ponadto analiza incydentów jest niezbędna do zidentyfikowania powiązanych wzorców. Ze względu na istnienie ogromnej populacji oprogramowania w każdej organizacji i miliony incydentów zgłaszanych każdego roku na oprogramowanie, praktycznie niemożliwe jest ręczne przeanalizowanie wszystkich zgłoszeń. Ten artykuł koncentruje się na określeniu znaczenia biletu dla utrzymania jakości oprogramowania, a także na odróżnieniu go od defektu związanego z systemem oprogramowania. W tym artykule przedstawiono znaczenie identyfikacji defektów w oprogramowaniu, a także obsługi zgłoszeń związanych z incydentami i rozwiązywania ich z perspektywy jakości. Zawiera również przegląd analizy defektów zakresu i analizy zgłoszeń dostarczanych badaczom. |
f69253e97f487b9d77b72553a9115fc814e3ed51 | Konwolucyjna sieć neuronowa Clickbait | Wraz z rozwojem reklam internetowych, clickbait rozprzestrzeniał się coraz szerzej. Clickbait nie satysfakcjonuje użytkowników, ponieważ treść artykułu nie odpowiada ich oczekiwaniom. W związku z tym wykrywanie przynęt na klikanie cieszy się ostatnio coraz większym zainteresowaniem. Tradycyjne metody wykrywania przynęty na kliknięcia opierają się na zaawansowanej inżynierii funkcji i nie odróżniają przynęty na kliknięcia od zwykłych nagłówków właśnie ze względu na ograniczoną ilość informacji w nagłówkach. Splotowa sieć neuronowa jest przydatna do wykrywania przynęt na kliknięcia, ponieważ wykorzystuje wstępnie wyszkolony Word2Vec do semantycznego rozumienia nagłówków i wykorzystuje różne jądra do znajdowania różnych cech nagłówków. Jednak różne rodzaje artykułów zwykle wykorzystują różne sposoby przyciągania uwagi użytkowników, a wstępnie wytrenowany model Word2Vec nie może rozróżnić tych różnych sposobów. Aby rozwiązać ten problem, proponujemy splotową sieć neuronową typu clickbait (CBCNN), która uwzględnia nie tylko ogólne cechy, ale także specyficzne cechy różnych typów artykułów. Nasze wyniki eksperymentalne pokazują, że nasza metoda przewyższa tradycyjne algorytmy wykrywania przynęty i model TextCNN pod względem precyzji, przywołania i dokładności. |
6c9bd4bd7e30470e069f8600dadb4fd6d2de6bc1 | Baza danych schematów narracyjnych | Niniejszy artykuł opisuje nowy zasób językowy zdarzeń i ról semantycznych, które charakteryzują sytuacje w świecie rzeczywistym. Schematy narracyjne zawierają zestawy powiązanych wydarzeń (edytuj i publikuj), czasową kolejność wydarzeń (edytuj przed publikacją) oraz semantyczne role uczestników (autorzy publikują książki). Ten rodzaj wiedzy o świecie miał kluczowe znaczenie dla wczesnych badań nad rozumieniem języka naturalnego. Skrypty były jednym z głównych formalizmów, reprezentujących wspólne sekwencje zdarzeń zachodzących na świecie. Niestety większość tej wiedzy była ręcznie kodowana, a jej tworzenie było czasochłonne. Obecne techniki uczenia maszynowego, a także nowe podejście do uczenia się poprzez łańcuchy odniesienia, pozwoliły nam automatycznie wyodrębnić bogatą strukturę zdarzeń z tekstu otwartej domeny w postaci schematów narracyjnych. Zasób schematów narracyjnych opisany w niniejszym artykule zawiera około 5000 unikalnych zdarzeń połączonych w schematy o różnej wielkości. Opisujemy zasób, sposób, w jaki się go uczy, oraz nową ocenę pokrycia tych schematów niewidzialnymi dokumentami. |
a72daf1fc4b1fc16d3c8a2e33f9aac6e17461d9a | Sugestia kontekstowa zorientowana na użytkownika | Systemy rekomendacji są używane w wielu domenach, aby wspomagać podejmowanie decyzji przez użytkowników poprzez dostarczanie rekomendacji dotyczących przedmiotów, a tym samym zmniejszanie przeciążenia informacjami. Systemy rekomendacji uwzględniające kontekst idą dalej, uwzględniając zmienność preferencji użytkowników w różnych kontekstach i sugerując elementy, które są odpowiednie w różnych kontekstach. W niniejszym artykule przedstawiamy nowatorskie zadanie rekomendacji „Sugestia kontekstu”, w ramach którego system rekomenduje konteksty, w których elementy mogą być wybierane. Przedstawiamy motywacje stojące za pojęciem sugestii kontekstu i omawiamy kilka potencjalnych rozwiązań. W szczególności koncentrujemy się na sugestii kontekstu zorientowanej na użytkownika, która polega na rekomendowaniu odpowiednich kontekstów w oparciu o profil użytkownika. Proponujemy rozszerzenia znanych algorytmów rekomendacji uwzględniających kontekst, takich jak faktoryzacja tensora i modelowanie kontekstowe oparte na odchyleniach, i dostosowujemy je jako metody rekomendowania kontekstów zamiast pozycji. W naszej ocenie empirycznej porównujemy proponowane rozwiązania z kilkoma podstawowymi algorytmami wykorzystującymi cztery zestawy danych ze świata rzeczywistego. |
585da6b6355f3536e1b12b30ef4c3ea54b955f2d | Zachowanie retweeterów obserwujących markę na Twitterze: Jak relacje z markami wpływają na elektroniczny przekaz szeptany marki | Twitter, popularna witryna mikroblogowa, cieszy się coraz większym zainteresowaniem jako unikalne narzędzie komunikacji, które ułatwia elektroniczną pocztę pantoflową (eWOM). Aby uzyskać lepszy wgląd w ten potencjał, badanie to sprawdza, w jaki sposób relacje konsumentów z markami wpływają na ich zaangażowanie w retweetowanie wiadomości marki na Twitterze. Dane z ankiety przeprowadzonej wśród 315 koreańskich konsumentów, którzy obecnie śledzą marki na Twitterze, pokazują, że ci, którzy retweetują wiadomości dotyczące marki, przewyższają tych, którzy tego nie robią pod względem identyfikacji marki, zaufania do marki, zaangażowania w społeczność, zamiaru członkostwa w społeczności, częstotliwości korzystania z Twittera i całkowitej liczby postów. 2014 Elsevier Ltd. Wszelkie prawa zastrzeżone. |
d18cc66f7f87e041dec544a0b843496085ab54e1 | Pamięć, nawigacja i rytm theta w układzie hipokampowo-śródwęchowym | Teorie dotyczące funkcji układu hipokampa opierają się w dużej mierze na dwóch fundamentalnych odkryciach: amnestycznych konsekwencjach usunięcia hipokampa i powiązanych struktur u słynnego pacjenta H.M. oraz obserwację, że impulsowa aktywność neuronów hipokampa jest związana z przestrzenną pozycją szczura. W ślad za tymi odkryciami podjęto wiele prób pogodzenia tych pozornie odmiennych funkcji. Proponujemy tutaj, że mechanizmy pamięci i planowania wyewoluowały z mechanizmów nawigacji w świecie fizycznym i stawiamy hipotezę, że algorytmy neuronalne leżące u podstaw nawigacji w przestrzeni rzeczywistej i mentalnej są zasadniczo takie same. Przeglądamy dane eksperymentalne na poparcie tej hipotezy i omawiamy, w jaki sposób określone wzorce wyzwalania i dynamika oscylacyjna w korze śródwęchowej i hipokampie mogą wspierać zarówno nawigację, jak i pamięć. |
22fc3af1fb55d48f3c03cd96f277503e92541c60 | Predykcyjna kontrola przetworników mocy: projekty o gwarantowanej wydajności | W niniejszej pracy zaproponowano projekt funkcji kosztu w oparciu o koncepcje stabilności Lapunowa dla sterowania predykcyjnego modelu zbioru sterowania skończonego. Taka konstrukcja sterownika predykcyjnego pozwala scharakteryzować wydajność sterowanego przekształtnika, zapewniając jednocześnie wystarczające warunki dla lokalnej stabilności dla klasy przekształtników mocy. Przeprowadzono symulacje i wyniki eksperymentów na przetworniku buck dc-dc i dwupoziomowym inwerterze dc-ac, aby potwierdzić skuteczność naszej propozycji. |
4114c89bec92ebde7c20d12d0303281983ed1df8 | Projekt i wdrożenie szybkiego dynamicznego filtra pakietów | W tym artykule przedstawiono Swift, filtr pakietów do wysokowydajnego przechwytywania pakietów na komercyjnym, ogólnodostępnym sprzęcie. Kluczowe cechy Swifta to: 1) bardzo niskie opóźnienie aktualizacji filtra dla dynamicznego filtrowania pakietów oraz 2) szybkie przetwarzanie pakietów z szybkością gigabitów na sekundę. Opierając się na złożonej architekturze zestawu instrukcji (ISA) komputera (CISC), Swift osiąga tę pierwszą dzięki konstrukcji zestawu instrukcji, która eliminuje potrzebę kompilacji i sprawdzania bezpieczeństwa, a drugą głównie wykorzystując pojedynczą instrukcję, wiele danych (SIMD). Wdrażamy Swift w jądrze Linux 2.6 dla architektur i386 i ×86-64 oraz szeroko oceniamy jego dynamiczną i statyczną wydajność filtrowania na wielu maszynach z różnymi konfiguracjami sprzętowymi. Porównujemy Swift z BPF (filtrem pakietów BSD) – de facto standardem filtrowania pakietów w nowoczesnych systemach operacyjnych – i ręcznie kodowanymi zoptymalizowanymi filtrami C, które są używane do demonstrowania możliwych wzrostów wydajności. W przypadku zadań dynamicznego filtrowania Swift jest co najmniej trzy rzędy wielkości szybszy niż BPF pod względem opóźnienia aktualizacji filtra. W przypadku zadań filtrowania statycznego Swift nawet trzykrotnie przewyższa BPF pod względem szybkości przetwarzania pakietów i osiąga znacznie zbliżoną wydajność do zoptymalizowanych filtrów C. Pokazujemy również, że Swift może wykorzystać moc obliczeniową sprzętowych instrukcji SIMD dzięki zestawowi instrukcji obsługującemu SIMD. |
8e508720cdb495b7821bf6e43c740eeb5f3a444a | Nauka skalowalnych głębokich jąder z Recurrent
Struktura | Wiele aplikacji w mowie, robotyce, finansach i biologii zajmuje się danymi sekwencyjnymi, gdzie porządkowanie i powtarzające się struktury są powszechne. Jednak ta struktura nie może być łatwo uchwycona przez standardowe funkcje jądra. Do modelowania takiej struktury proponujemy ekspresyjne funkcje jądra w formie zamkniętej dla procesów Gaussa. Powstały model, GP-LSTM, w pełni zawiera indukcyjne błędy systematyczne sieci rekurencyjnych z pamięcią długo-krótkotrwałą (LSTM), zachowując jednocześnie nieparametryczne probabilistyczne zalety procesów Gaussa. Uczymy się właściwości proponowanych jąder poprzez optymalizację prawdopodobieństwa marginalnego procesu Gaussa przy użyciu nowej, dającej się udowodnić zbieżnej procedury gradientu półstochastycznego i wykorzystujemy strukturę tych jąder do skalowalnego uczenia i przewidywania. To podejście zapewnia praktyczną reprezentację dla bayesowskich LSTM. Demonstrujemy najnowocześniejsze osiągi w kilku testach porównawczych i dokładnie badamy wynikową aplikację do jazdy autonomicznej, w której niepewności predykcyjne zapewniane przez GP-LSTM są wyjątkowo cenne. |
110599f48c30251aba60f68b8484a7b0307bcb87 | SemEval-2015 Zadanie 11: Analiza sentymentu języka figuratywnego na Twitterze | Niniejszy raport podsumowuje cele i ocenę zadania SemEval 2015 dotyczącego analizy sentymentu języka figuratywnego na Twitterze (Zadanie 11). Jest to pierwsze zadanie analizy sentymentu w całości poświęcone analizie języka figuratywnego na Twitterze. W szczególności rozważane są trzy szerokie klasy języka figuratywnego: ironia, sarkazm i metafora. Złote standardowe zestawy zawierające 8000 tweetów szkoleniowych i 4000 tweetów testowych zostały opisane przy użyciu pracowników platformy crowdsourcingowej CrowdFlower. Systemy uczestniczące musiały zapewnić szczegółową ocenę nastrojów w 11-punktowej skali (od -5 do +5, w tym 0 dla intencji neutralnych) dla każdego tweeta, a systemy zostały ocenione w odniesieniu do złotego standardu przy użyciu zarówno podobieństwa, jak i średniej -Kwadratowa miara błędu. |
4b53f660eb6cfe9180f9e609ad94df8606724a3d | Eksploracja tekstu nagłówków wiadomości dla prognoz rynku FOREX: wielowarstwowy algorytm redukcji wymiarów z semantyką i sentymentem | W niniejszym artykule zaproponowano nowatorskie podejście do przewidywania śróddziennych kierunkowych ruchów pary walutowej na rynku walutowym na podstawie tekstu najświeższych nagłówków wiadomości finansowych. Motywacja tej pracy jest dwojaka: po pierwsze, chociaż w literaturze wykazano, że prognozowanie rynku za pomocą eksploracji tekstów jest obiecującym obszarem pracy, podejścia do eksploracji tekstów stosowane na tym etapie niewiele wykraczają poza podstawowe, ponieważ jest wciąż rozwijającą się dziedziną. Praca ta jest próbą położenia większego nacisku na metody text-miningu i zmierzenia się z pewnymi jego specyficznymi aspektami, które były słabe w poprzednich pracach, a mianowicie: problemem wysokiej wymiarowości oraz problemem ignorowania sentymentu i semantyki w radzeniu sobie z językiem tekstu. . Badania te zakładają, że zajęcie się tymi aspektami eksploracji tekstów ma wpływ na jakość uzyskiwanych wyników. Zaproponowany system potwierdza słuszność tego założenia. Drugą częścią motywacji jest zbadanie konkretnego rynku, a mianowicie rynku walutowego, który wydaje się nie być badany w poprzednich pracach opartych na predykcyjnym eksploracji tekstu. Dlatego też wyniki tej pracy z powodzeniem pokazują również predykcyjny związek między tym konkretnym typem rynku a danymi tekstowymi wiadomości. Poza powyższymi dwoma głównymi składnikami motywacji, istnieją inne specyficzne aspekty, które sprawiają, że konfiguracja proponowanego systemu i przeprowadzonego eksperymentu są wyjątkowe, na przykład użycie tylko nagłówków artykułów z wiadomościami, a nie treści artykułów z wiadomościami, co umożliwia wykorzystanie krótkich fragmentów tekstu, a nie długich; lub korzystanie z ogólnych wiadomości finansowych bez dalszej filtracji. Aby zrealizować powyższe, w niniejszej pracy opracowano wielowarstwowy algorytm, który zajmuje się każdym z wymienionych aspektów problemu eksploracji tekstu w wyznaczonej warstwie. Pierwsza warstwa nosi nazwę Semantic Abstraction Layer i rozwiązuje problem współodniesienia w eksploracji tekstu, który przyczynia się do rzadkości. Współodwołanie występuje, gdy dwa lub więcej słów w korpusie tekstu odnosi się do tego samego pojęcia. Ta praca tworzy niestandardowe podejście o nazwie Heuristic-Hypernyms Feature-Selection, które umożliwia rozpoznawanie słów z tym samym słowem-rodzicem, aby były traktowane jako jedna całość. W rezultacie dokładność przewidywania znacznie wzrasta w tej warstwie, co przypisuje się odpowiedniej redukcji szumów z przestrzeni cech. Druga warstwa nosi nazwę Warstwa integracji sentymentu, która integruje możliwość analizy nastrojów z algorytmem, proponując wagę nastrojów o nazwie SumScore, która odzwierciedla nastroje inwestorów. Ponadto ta warstwa zmniejsza wymiary, eliminując te, które mają zerową wartość pod względem sentymentu, a tym samym poprawia dokładność prognoz. Trzecia warstwa obejmuje dynamiczny algorytm tworzenia modelu, określany jako Synchronous Targeted Feature Reduction (STFR). Nadaje się do wyzwania pod ręką, w którym dotyczy eksploracji strumienia tekstu. Aktualizuje modele o najnowsze dostępne informacje i, co ważniejsze, zapewnia zmniejszenie wymiarów do absolutnego minimum. Algorytm i każda z jego warstw są szeroko oceniane przy użyciu rzeczywistych danych rynkowych i treści wiadomości z wielu lat i okazały się solidne i lepsze od jakiegokolwiek innego porównywalnego rozwiązania. Proponowane techniki zaimplementowane w systemie dają bardzo wysokie dokładności kierunkowe dochodzące do 83,33%. Oprócz dobrze zaokrąglonego, wieloaspektowego algorytmu, praca ta wnosi bardzo potrzebne ramy badawcze w tym kontekście z bazą testową danych, która musi sprawić, że przyszłe przedsięwzięcia badawcze będą wygodniejsze. Opracowany algorytm jest skalowalny, a jego modułowa konstrukcja umożliwia doskonalenie każdej z jego warstw w przyszłych badaniach. Ten artykuł zawiera wiele szczegółów, aby odtworzyć cały system i przeprowadzone eksperymenty. 2014 Elsevier Ltd. Wszelkie prawa zastrzeżone. A. Khadjeh Nasirtoussi i in. / Systemy eksperckie z aplikacjami 42 (2015) 306–324 307 |
7f90ef42f22d4f9b86d33b0ad7f16261273c8612 | BabelNet: Automatyczna konstrukcja, ocena i zastosowanie wielojęzycznej sieci semantycznej o szerokim zasięgu | a r t i c e i n f o a b s t r a k t Przedstawiamy automatyczne podejście do budowy BabelNet, bardzo dużej, wielojęzycznej sieci semantycznej o szerokim zasięgu. Kluczem do naszego podejścia jest integracja wiedzy leksykograficznej i encyklopedycznej z WordNetu i Wikipedii. Ponadto stosowane jest tłumaczenie maszynowe w celu wzbogacenia zasobu o informacje leksykalne dla wszystkich języków. Najpierw przeprowadzamy eksperymenty in vitro na nowych i istniejących zestawach danych o złotym standardzie, aby pokazać wysoką jakość i zasięg BabelNet. Następnie pokazujemy, że nasz zasób leksykalny może być z powodzeniem wykorzystany do dezambiguacji sensu słów zarówno jednojęzycznych, jak i międzyjęzykowych: dzięki szerokiemu zakresowi leksykalnemu i nowatorskim relacjom semantycznym jesteśmy w stanie osiągnąć najnowocześniejsze wyniki na trzech różnych SemEval zadania ewaluacyjne. |
033b62167e7358c429738092109311af696e9137 | Kciuki w górę czy w dół? Orientacja semantyczna stosowana do nienadzorowanej klasyfikacji recenzji | W niniejszym artykule przedstawiono prosty algorytm uczenia nienadzorowanego, służący do klasyfikowania recenzji jako rekomendowanych (kciuki w górę) lub niezalecanych (kciuki w dół). Klasyfikacja recenzji jest przewidywana przez średnią orientację semantyczną fraz w recenzji, które zawierają przymiotniki lub przysłówki. Wyrażenie ma pozytywną orientację semantyczną, gdy ma dobre skojarzenia (np. „subtelne niuanse”) i negatywną orientację semantyczną, gdy ma złe skojarzenia (np. „bardzo niefrasobliwy”). W niniejszym artykule orientacja semantyczna frazy jest obliczana jako wzajemne informacje między daną frazą a słowem „doskonały” minus wzajemne informacje między daną frazą a słowem „słabo”. Recenzja jest uznawana za rekomendowaną, jeśli średnia orientacja semantyczna jej fraz jest pozytywna. Algorytm osiąga średnią dokładność 74%, gdy oceniany jest na 410 recenzjach z Epinions, pobranych z czterech różnych domen (recenzje samochodów, banków, filmów i miejsc podróży). Dokładność waha się od 84% w przypadku recenzji samochodów do 66% w przypadku recenzji filmów. |
105a0b3826710356e218685f87b20fe39c64c706 | Obserwator opinii: analiza i porównywanie opinii w sieci | Sieć stała się doskonałym źródłem zbierania opinii konsumenckich. Obecnie istnieje wiele witryn internetowych zawierających takie opinie, np. opinie klientów o produktach, fora dyskusyjne, grupy dyskusyjne i blogi. Ten artykuł koncentruje się na recenzjach produktów online przez klientów. Wnosi dwa wkłady. Po pierwsze, proponuje nowatorskie ramy analizowania i porównywania opinii konsumentów na temat konkurencyjnych produktów. Wdrożony zostaje również prototypowy system o nazwie Opinion Observer. System jest taki, że jednym rzutem oka na jego wizualizację użytkownik jest w stanie wyraźnie dostrzec mocne i słabe strony każdego produktu w świadomości konsumentów pod kątem różnych cech produktu. To porównanie jest przydatne zarówno dla potencjalnych klientów, jak i producentów produktów. Potencjalny klient może zobaczyć wizualne porównanie opinii konsumentów na temat tych produktów obok siebie i funkcji, co pomaga mu zdecydować, który produkt kupić. W przypadku producenta produktu porównanie umożliwia łatwe zbieranie informacji marketingowych i informacji o analizie porównawczej produktów. Po drugie, proponuje się nową technikę opartą na wyszukiwaniu wzorców językowych, aby wyodrębnić cechy produktu z zalet i wad w określonym rodzaju recenzji. Takie cechy stanowią podstawę powyższego porównania. Wyniki eksperymentalne pokazują, że technika ta jest wysoce skuteczna i znacznie przewyższa istniejące metody. |
9ea16bc34448ca9d713f4501f1a6215a26746372 | Przegląd praktyk testowania oprogramowania w Alberta | Organizacje zajmujące się oprogramowaniem zazwyczaj nie kładą nacisku na znaczenie testowania oprogramowania. W niniejszym artykule opisano wyniki regionalnego badania technik testowania oprogramowania i zapewniania jakości oprogramowania. Naukowcy przeprowadzili badanie latem i jesienią 2002 roku, przeprowadzając ankiety wśród organizacji zajmujących się oprogramowaniem w prowincji Alberta. Wyniki wskazują, że organizacje z siedzibą w Albercie zwykle testują mniej niż ich odpowiedniki w Stanach Zjednoczonych. Wyniki wskazują również, że organizacje zajmujące się oprogramowaniem w Albercie mają tendencję do szkolenia mniejszej liczby personelu na tematy związane z testowaniem. Ta praktyka może mieć dwojaki wpływ: po pierwsze, brak testów może ucierpieć na zdolności wykrywania trendów prowadzących do obniżonej jakości i identyfikacji pierwotnych przyczyn obniżenia jakości produktu. Ta konsekwencja jest na tyle poważna, że uzasadnia rozważenie, ponieważ ogólna jakość może ucierpieć z powodu zmniejszonej zdolności do wykrywania i eliminowania wad procesu lub produktu. Po drugie, organizacji może być trudniej przyjąć metodologie, takie jak programowanie ekstremalne. Jest to znaczące, ponieważ inne badania branżowe wykazały, że wiele organizacji zajmujących się oprogramowaniem próbowało lub w ciągu najbliższych kilku lat spróbuje jakiejś formy metodyki zwinnej. Nowsze podejścia do tworzenia oprogramowania, takie jak programowanie ekstremalne, zwiększają zakres, w jakim zespoły polegają na umiejętnościach testowania. Organizacje powinny traktować swój poziom umiejętności testowania jako kluczowy wskaźnik ich gotowości do przyjęcia technik tworzenia oprogramowania, takich jak programowanie sterowane testami, programowanie ekstremalne, modelowanie zwinne lub inne metody zwinne. |
746cafc676374114198c414d6426ec2f50e0ff80 | Analiza i projektowanie sterowania trybem prądu średniego przy użyciu opisowo-funkcyjnego modelu równoważnego obwodu | W artykule zaproponowano model małosygnałowy do sterowania trybem średnioprądowym w oparciu o obwód zastępczy. Model wykorzystuje trójzaciskowy równoważny model obwodu oparty na zlinearyzowanej metodzie opisującej funkcji, aby uwzględnić efekt sprzężenia zwrotnego składowych częstotliwości wstęgi bocznej prądu cewki indukcyjnej. Model rozszerza wyniki uzyskane w sterowaniu w trybie prądu szczytowego na sterowanie w trybie prądu średniego. Proponowany model małosygnałowy jest dokładny do połowy częstotliwości przełączania, przewidując niestabilność subharmoniczną. Zaproponowany model jest weryfikowany za pomocą symulacji SIMPLIS i eksperymentów sprzętowych, które wykazują dobrą zgodność z wynikami pomiarów. W oparciu o zaproponowany model przedstawiono nowe wytyczne dotyczące projektowania informacji zwrotnych. Zaproponowane wytyczne projektowe porównuje się z kilkoma konwencjonalnymi, powszechnie stosowanymi kryteriami projektowymi. Projektując rampę zewnętrzną zgodnie z proponowanymi wytycznymi projektowymi, można precyzyjnie kontrolować współczynnik jakości podwójnych biegunów przy połowie częstotliwości przełączania w funkcji przekazywania sterowania na wyjście. Pomaga to projektowi pętli sprzężenia zwrotnego osiągnąć szerokie pasmo sterowania i odpowiednie tłumienie. |
2b337d6a72c8c2b1d97097dc24ec0e9a8d4c2186 | Korzystanie z głębokiego uczenia się do rozumienia krótkich tekstów | Klasyfikowanie krótkich tekstów do jednej kategorii lub grupowanie tekstów powiązanych semantycznie jest wyzwaniem, a znaczenie obu tych sposobów rośnie ze względu na rozwój platform mikroblogowych, cyfrowych kanałów informacyjnych i tym podobnych. Możemy dokonać tej klasyfikacji i grupowania za pomocą głębokiej sieci neuronowej, która tworzy zwartą binarną reprezentację krótkiego tekstu i może przypisać tę samą kategorię do tekstów, które mają podobne reprezentacje binarne. Problemy pojawiają się jednak, gdy w krótkich tekstach jest mało informacji kontekstowych, co utrudnia głębokiej sieci neuronowej tworzenie podobnych kodów binarnych dla tekstów powiązanych semantycznie. Proponujemy rozwiązanie tego problemu za pomocą wzbogacenia semantycznego. Osiąga się to, biorąc rzeczowniki i czasowniki używane w krótkich tekstach i generując pojęcia oraz współwystępujące słowa za pomocą tych terminów. Rzeczowniki służą do generowania pojęć w danym krótkim tekście, a czasowniki służą do przycinania niejednoznacznego kontekstu (jeśli istnieje) obecnego w tekście. Wzbogacony tekst przechodzi następnie przez głęboką sieć neuronową, aby utworzyć etykietę przewidywania dla tego krótkiego tekstu reprezentującego jego kategorię. |
1d53a898850b8d055db80ba99c59c89b080dfc4c | MVOR: Wielowidokowy zestaw danych sali operacyjnej RGB-D do szacowania pozycji człowieka w 2D i 3D | Wykrywanie osób i szacowanie pozycji jest kluczowym wymogiem do opracowania inteligentnych, kontekstowych systemów wspomagających. Aby wspierać rozwój metod szacowania ludzkiej postawy i ich zastosowań w sali operacyjnej (OR), udostępniamy zestaw danych Multi-View Operating Room (MVOR), pierwszy publiczny zestaw danych zarejestrowany podczas rzeczywistych interwencji klinicznych. Składa się z 732 zsynchronizowanych klatek wielowidokowych zarejestrowanych przez trzy kamery RGB-D w hybrydowej sali operacyjnej. Obejmuje również wizualne wyzwania obecne w takich środowiskach, takie jak okluzja i bałagan. Zapewniamy parametry kalibracji kamery, ramki kolorów i głębi, ramki ograniczające ludzi oraz adnotacje pozy 2D/3D. W tym artykule przedstawiamy zbiór danych, jego adnotacje, a także wyniki bazowe z kilku ostatnich metod wykrywania osób i szacowania pozycji 2D/3D. Ponieważ musimy zamazać niektóre części obrazów, aby ukryć tożsamość i nagość w opublikowanym zbiorze danych, przedstawiamy również badanie porównawcze, w jaki sposób rozmycie wpłynęło na linie bazowe. Wyniki pokazują duży margines do poprawy i sugerują, że zestaw danych MVOR może być przydatny do porównywania wydajności różnych metod. |
954d0346b5cdf3f1ec0fcc74ae5aadc5b733adc0 | Poza analizą zaangażowania: jakie czynniki związane z mieszanymi danymi online pozwalają przewidzieć wyniki uczenia się uczniów? | To badanie metodą mieszaną koncentruje się na analizie uczenia się online, która jest ważnym obszarem badawczym. Bada się kilka ważnych atrybutów uczniów i ich aktywności online, aby określić, co wydaje się najlepiej sprawdzać w przewidywaniu wyższych ocen. Celem jest zbadanie relacji między stopniem studenta a kluczowymi czynnikami zaangażowania w naukę na dużej próbie z internetowego kursu biznesowego na akredytowanym amerykańskim uniwersytecie (n = 228). Ostatnie badania zdyskontowały możliwość przewidywania wyników uczenia się uczniów na podstawie analizy dużych zbiorów danych, ale niektórzy badacze odkryli kilka istotnych wskaźników. Aktualne badania zwykle wykorzystują czynniki ilościowe w uczeniu się analityki do prognozowania wyników. Niniejsze badanie rozszerza tę pracę o testowanie wspólnych ilościowych predyktorów wyników uczenia się, ale analizuje się również dane jakościowe w celu triangulacji dowodów. Na początku kursu odbywa się testowanie wiedzy z zakresu technologii informatycznych przed i po zakończeniu kursu. Zbierane są pierwsze dane ilościowe i w zależności od wyników testu hipotezy, dane jakościowe są gromadzone i analizowane za pomocą analizy tekstowej w celu wykrycia wzorców. Wskaźniki analizy zaangażowania Moodle są testowane jako predyktory w modelu. Dane są również pobierane z logów systemowych Moodle. Dane jakościowe są zbierane z esejów refleksyjnych uczniów. W rezultacie uzyskano istotny ogólny model liniowy z czterema predyktorami interakcji online, które uchwyciły 77,5% rozbieżności ocen na licencjackim kursie biznesowym. |
483b94374944293d2a6d36cc1c97f0544ce3c79c | Jakie atrybuty hotelu mają znaczenie? Przegląd poprzednich i ramy dla przyszłych badań | W ostatnich dziesięcioleciach dołożono wielu starań, aby ujawnić, na jakich atrybutach hotelowych zależy gościom. Ze względu na wysokie koszty, jakie zwykle wiążą się z inwestycjami w branży hotelarskiej, warto zbadać, jakie komponenty produktu doceniają podróżni. Badanie to pokazuje, że badania atrybutów hoteli okazują się być szeroką i niezwykle niejednorodną dziedziną badań. Autorzy dokonują przeglądu badań empirycznych badających znaczenie atrybutów hoteli, przedstawiają rankingi atrybutów i sugerują ramy dla przeszłych i przyszłych projektów badawczych w tej dziedzinie, w oparciu o wymiary „koncentracja badań”, „ryzyko kontra użyteczność” oraz „kompromis kontra brak kompromisowej sytuacji kwestionowania”. |
54c377407242e74e7c08e4a49e61837fd9ce2b25 | O jakości energii w samolotowych systemach elektroenergetycznych o stałej częstotliwości o zmiennej prędkości | W niniejszym artykule opracowano kompleksowy model systemu elektroenergetycznego samolotu o zmiennej prędkości i stałej częstotliwości w celu zbadania charakterystyk pracy systemu, a w szczególności jakości zasilania systemu w zakresie częstotliwości pracy od 400 Hz do 800 Hz. . W pełni kontrolowany aktywny filtr mocy został zaprojektowany w celu regulacji napięcia na zaciskach obciążenia, eliminacji harmonicznych, korekcji współczynnika mocy zasilania i minimalizacji wpływu niezrównoważonych obciążeń. Algorytm sterowania aktywnym filtrem mocy (APF) opiera się na doskonałej metodzie eliminacji harmonicznych, która zapewnia trójfazowy prąd odniesienia w fazie z jego podstawowym napięciem składowej zgodnej. Proponowany APF jest zintegrowany z modelem zaawansowanego systemu zasilania elektrycznego samolotu o mocy 90 kVA w ramach operacji VSCF. Charakterystyki pracy układu badane są przy częstotliwości napięcia wyjściowego generatora wahającej się od 400 Hz do 800 Hz w różnych warunkach obciążenia. Przedstawiono kilka studiów przypadku obejmujących obciążenia DC oraz pasywne i dynamiczne obciążenia AC. Wykazano, że charakterystyki jakości energii badanego systemu elektroenergetycznego samolotu z proponowanym filtrem aktywnym są zgodne z najnowszymi normami elektrycznymi samolotów wojskowych MIL-STD-704F oraz IEEE Std. 519. |
9d1940f843c448cc378214ff6bad3c1279b1911a | Segmentacja instancji uwzględniająca kształt | Odnosimy się do problemu segmentacji semantycznej na poziomie instancji, która ma na celu wspólne wykrywanie, segmentowanie i klasyfikowanie każdego pojedynczego obiektu na obrazie. W tym kontekście istniejące metody zazwyczaj proponują obiekty kandydujące, zwykle jako ramki ograniczające, i bezpośrednio przewidują maskę binarną w każdej takiej propozycji. W konsekwencji nie mogą naprawić błędów w procesie generowania obiektów kandydujących, takich jak zbyt małe lub przesunięte pudełka. W tym artykule przedstawiamy nową reprezentację segmentu obiektu opartą na transformacji odległości masek obiektu. Następnie projektujemy sieć masek obiektów (OMN) z nową architekturą dekonwolucji rezydualnej, która wnioskuje taką reprezentację i dekoduje ją do końcowej binarnej maski obiektu. Pozwala nam to przewidzieć maski, które wykraczają poza zakres ramek ograniczających, a zatem są odporne na niedokładne kandydatury obiektów. Integrujemy naszą OMN ze strukturą Multitask Network Cascade i uczymy się powstałej sieci segmentacji instancji uwzględniającej kształt (SAIS) w sposób kompleksowy. Nasze eksperymenty na zestawach danych PASCAL VOC 2012 i CityScapes pokazują zalety naszego podejścia, które przewyższa najnowocześniejsze rozwiązania zarówno w zakresie generowania propozycji obiektów, jak i segmentacji instancji. |
4d0130e95925b00a2d1ecba931a1a05a74370f3f | RT-Mover: robot mobilny do pracy w trudnym terenie z prostym mechanizmem hybrydowym z kołem nożnym | W wielu dziedzinach istnieje duże zapotrzebowanie na praktyczne roboty, takie jak robot tragarz i robot do mobilności osobistej, które mogą poruszać się po nierównym terenie podczas poziomego przewożenia ładunku. Opracowaliśmy robota o nazwie RT-Mover, który wykazuje odpowiednią mobilność na wybranych typach nierównego terenu. Ma cztery napędzane koła i dwie podobne do nóg osie, ale tylko pięć aktywnych wałów. Mocną stroną tego robota jest to, że realizuje on zarówno tryb nóg, jak i tryb koła w prostym mechanizmie. W niniejszym artykule omówiono koncepcję projektowania mechanicznego. Z naciskiem na minimalizację liczby wałów napędowych zaprojektowano mechanizm do czterokołowego nadwozia ruchomego, które jest szeroko stosowane w praktycznych maszynach lokomotyw. Proponowane są również strategie poruszania się po trudnym terenie. Kinematyka, stabilność i sterowanie RT-Mover są również szczegółowo opisane. Wybrano kilka typowych przypadków nierównego terenu dla trybu koła i trybu nóg, a zdolność poruszania się robota jest oceniana za pomocą symulacji i eksperymentów. W każdym przypadku robot jest w stanie poruszać się po nierównym terenie, zachowując poziomą orientację swojej platformy. |
0651f838d918586ec1df66450c3d324602c9f59e | Ataki na prywatność w mediach społecznościowych z wykorzystaniem sieci do oznaczania zdjęć: studium przypadku z Facebookiem | Użytkownicy sieci społecznościowych nieświadomie ujawniają pewne rodzaje danych osobowych, z których złośliwi napastnicy mogą czerpać korzyści, aby dopuścić się poważnych naruszeń prywatności. Ten artykuł ilościowo pokazuje, w jaki sposób prosta czynność oznaczania zdjęć w serwisie społecznościowym Facebooka może ujawnić niezwykle wrażliwe atrybuty prywatnych użytkowników. Nasze wyniki sugerują, że tagi fotograficzne mogą pomóc w przewidywaniu niektórych, ale nie wszystkich analizowanych atrybutów. Uważamy, że nasza analiza uświadamia użytkownikom istotne naruszenia ich prywatności i może pomóc w opracowaniu nowych, chroniących prywatność sposobów oznaczania zdjęć w serwisach społecznościowych. |
4c9774c5e57a4b7535eb19f6584f75c8b9c2cdcc | Framework oparty na algorytmach szyfrowania RSA i AES dla usług przetwarzania w chmurze | Przetwarzanie w chmurze to nowy model obliczeniowy, w którym zasoby komunikacji obliczeniowej są dostarczane jako usługi przez Internet. Prywatność i bezpieczeństwo usług przechowywania w chmurze są bardzo ważne i stają się wyzwaniem w cloud computingu ze względu na utratę kontroli nad danymi i ich zależność od dostawcy cloud computing. Podczas gdy w systemie chmurowym przesyłana jest ogromna ilość danych, wzrasta ryzyko uzyskania dostępu do danych przez atakujących. Mając na uwadze problem budowy bezpiecznej usługi przechowywania w chmurze, proponuje się obecny schemat, który opiera się na połączeniu metod szyfrowania RSA i AES w celu udostępniania danych użytkownikom w bezpiecznym systemie chmury. Zaproponowana metoda pozwala na utrudnienie atakującym, a także skrócenie czasu przesyłania informacji między użytkownikiem a przechowywaniem danych w chmurze. |
e645cbd3aaeab56858f1e752677b8792d7377d14 | BCSAT: korpus wzorcowy do analizy nastrojów w języku telugu przy użyciu adnotacji na poziomie słów | Prezentowana praca ma na celu wygenerowanie systematycznie adnotowanego korpusu, który może wspierać ulepszanie zadań analizy sentymentu w języku telugu za pomocą adnotacji sentymentu na poziomie słowa. Z OntoSenseNet wydobyliśmy 11 000 przymiotników, 253 przysłówki, 8483 czasowniki, a adnotacje sentymentów są wykonywane przez ekspertów językowych. Omawiamy stosowaną metodologię dla adnotacji polaryzacji i weryfikujemy opracowany zasób. Ta praca ma na celu opracowanie korpusu porównawczego, jako rozszerzenia SentiWordNet, oraz dokładności bazowej dla modelu, w którym adnotacje leksemowe są stosowane do przewidywania nastrojów. Podstawowym celem tego artykułu jest walidacja i badanie możliwości wykorzystania algorytmów uczenia maszynowego, adnotacji sentymentalnych na poziomie słów w zadaniu automatycznej identyfikacji sentymentów. Co więcej, dokładność jest poprawiona poprzez adnotowanie bigramów wyodrębnionych z docelowego korpusu. |
40f5430ef326838d5b7ce018f62e51c188d7cdd7 | Wpływ prezentacji informacji w formie quizu na zrozumienie przez użytkownika | W tym artykule proponuje się prezentację informacji w formie quizu dla systemów interaktywnych jako sposób na poprawę zrozumienia przez użytkownika zadań edukacyjnych. Ponieważ charakter quizów może silnie zmotywować użytkowników do dobrowolnego zaangażowania się w interakcję i skupienia uwagi na otrzymywaniu informacji, oczekuje się, że informacje przedstawione jako quizy będą lepiej rozumiane przez użytkowników. Aby zweryfikować skuteczność podejścia, wdrożyliśmy systemy odczytów i quizów oraz przeprowadziliśmy eksperymenty porównawcze z udziałem ludzi. W zadaniu polegającym na zapamiętywaniu faktów biograficznych wyniki wykazały, że zrozumienie przez użytkownika systemu quizów było znacznie lepsze niż systemu odczytowego, a badani byli bardziej skłonni do korzystania z systemu quizów pomimo długiego czasu trwania quizów. Wskazuje to, że prezentacja informacji w formie quizu promuje zaangażowanie w interakcję z systemem, prowadząc do lepszego zrozumienia przez użytkownika. |
24bbff699187ad6bf37e447627de1ca25267a770 | Badania nad ciągłym audytem: analiza bibliometryczna | Niniejszy artykuł przedstawia wyniki badania bibliometrycznego dotyczącego ewolucji badań nad Ciągłym Audytem. Badanie to ma jako główną motywację do znalezienia przyczyn bardzo powolnego rozwoju badań na ten temat. Ponadto Continuous Auditing jest jedną z cech rodzącej się koncepcji Continuous Assurance. Tak więc, biorąc pod uwagę, że ciągła kontrola zapewnia liczne korzyści dla wyników organizacji, niniejsze badanie ma również na celu zrozumienie, czy istnieje związek między ewolucją badań nad ciągłym audytem a wciąż bardzo niskimi poziomami dojrzałości rozwiązań zapewniających ciągłą pewność. Badanie to pokazuje, że liczba publikacji jest znacznie zmniejszona, a powolny rozwój badań nad Ciągłym Audytem może przyczyniać się do braku dojrzałości Continuous Assurance. |
abd0478f1572d8ecdca4738df3e4b3bd116d7b42 | Czynniki dyspozycyjne w korzystaniu z Internetu: osobowość a styl poznawczy | Badanie to bezpośrednio sprawdza wpływ osobowości i stylu poznawczego na trzy miary korzystania z Internetu. Wyniki potwierdzają wykorzystanie osobowości — ale nie stylu poznawczego — jako zmiennej poprzedzającej. Po uwzględnieniu lęku przed komputerem, poczucia własnej skuteczności i płci, uwzględnienie w analizie czynników osobowości „Wielkiej Piątki” znacząco zwiększa możliwości predykcyjne zmiennych zależnych. Włączenie stylu poznawczego nie. Wyniki omówiono pod kątem roli osobowości i stylu poznawczego w modelach przyjęcia i wykorzystania technologii. |
a64f48f9810c4788236f31dc2a9b87dd02977c3e | Ocena jakości głosu najnowszych kodeków typu open source | • Uśrednione odpowiedzi częstotliwościowe przy różnych 16 i 24 kHz. Zewnętrzna częstotliwość próbkowania nie mówi o wewnętrznej częstotliwości próbkowania. • Obsługiwane pasmo sygnału zależy od przepływności, ale nie istnieje żadna dokumentacja. Pasmo zostało znalezione eksperymentalnie • Przetestowaliśmy próbkowanie 32kHz przy długości ramki 16ms. Istnieje również 8 ms lookahead. • Wyniki pokazują, że szybkości transmisji poniżej 32 kbit/s nie nadają się do zastosowań głosowych. Jakość głosu jest znacznie gorsza niż w przypadku SILK lub szybkości transmisji wyświetlanych w stanie ustalonym |
76eea8436996c7e9c8f7ad3dac34a12865edab24 | Replikacja łańcuchowa zapewniająca wysoką przepustowość i dostępność | Replikacja łańcuchowa to nowe podejście do koordynowania klastrów serwerów pamięci masowej z funkcją awaryjnego zatrzymania. To podejście jest przeznaczone do obsługi usług pamięci masowej na dużą skalę, które wykazują wysoką przepustowość i dostępność bez poświęcania silnych gwarancji spójności. Oprócz naszkicowania samych protokołów replikacji łańcuchów, eksperymenty symulacyjne badają charakterystykę wydajności implementacji prototypu. Omówiono przepustowość, dostępność i kilka strategii umieszczania obiektów (w tym schematy oparte na routingu rozproszonych tablic mieszających). |
522a7178e501018e442c03f4b93e29f62ae1eb64 | Deep Voice 2: Multi-Speaker Neural Text-to-Speech | Wprowadzamy technikę rozszerzania neuronowego przetwarzania tekstu na mowę (TTS) z niskowymiarowymi osadzonymi głośnikami, które można trenować, aby generować różne głosy z jednego modelu. Jako punkt wyjścia pokazujemy ulepszenia w stosunku do dwóch najnowocześniejszych podejść do jednogłośnikowych neuronowych TTS: Deep Voice 1 i Tacotron. Wprowadzamy Deep Voice 2, który jest oparty na podobnym potoku co Deep Voice 1, ale zbudowany z elementów o wyższej wydajności i wykazuje znaczną poprawę jakości dźwięku w porównaniu z Deep Voice 1. Udoskonalamy Tacotron, wprowadzając wokoder neuronowy do przetwarzania końcowego oraz wykazać znaczną poprawę jakości dźwięku. Następnie demonstrujemy naszą technikę wielogłośnikowej syntezy mowy zarówno dla Deep Voice 2, jak i Tacotron na dwóch wielogłośnikowych zestawach danych TTS. Pokazujemy, że pojedynczy system neuronowy TTS może nauczyć się setek unikalnych głosów z mniej niż pół godziny danych na mówcę, osiągając jednocześnie wysoką jakość syntezy dźwięku i niemal perfekcyjnie zachowując tożsamość mówcy. |
ccbcaf528a222d04f40fd03b3cb89d5f78acbdc6 | Przegląd literatury na temat przewidywania chorób nerek przy użyciu techniki klasyfikacji eksploracji danych | -Ogromne ilości danych generowanych przez transakcje opieki zdrowotnej są zbyt złożone i obszerne, aby mogły być przetwarzane i analizowane tradycyjnymi metodami. Eksploracja danych zapewnia metodologię i technologię przekształcania tych stosów danych w przydatne informacje do podejmowania decyzji. Branża opieki zdrowotnej jest generalnie „bogata w informacje”, co jest niewykonalne w ręcznej obsłudze. Te duże ilości danych są bardzo ważne w dziedzinie eksploracji danych, aby wyodrębnić przydatne informacje i wygenerować relacje między atrybutami. Choroba nerek to złożone zadanie, które wymaga dużego doświadczenia i wiedzy. Choroba nerek jest cichym zabójcą w krajach rozwiniętych i jednym z głównych czynników przyczyniających się do obciążenia chorobami w krajach rozwijających się. W branży opieki zdrowotnej eksploracja danych jest wykorzystywana głównie do przewidywania chorób na podstawie zestawów danych. Techniki klasyfikacji eksploracji danych, a mianowicie drzewa decyzyjne, ANN, Naive Bayes są analizowane na zbiorze danych dotyczących chorób nerek. Słowa kluczowe — eksploracja danych, choroba nerek, drzewo decyzyjne, naiwne Bayes, ANN, K-NN, SVM, zbiór przybliżony, regresja logistyczna, algorytmy genetyczne (GA) / programowanie ewolucyjne (EP), klastrowanie |
30f46fdfe1fdab60bdecaa27aaa94526dfd87ac1 | Rekonstrukcja 3D w czasie rzeczywistym i śledzenie 6-DoF za pomocą kamery zdarzeń | Proponujemy metodę, która może wykonać rekonstrukcję 3D w czasie rzeczywistym z pojedynczej ręcznej kamery zdarzenia bez dodatkowego wykrywania i działa w nieustrukturyzowanych scenach, o których nie ma wcześniej wiedzy. Opiera się na trzech odsprzężonych filtrach probabilistycznych, z których każdy szacuje ruch kamery 6-DoF, gradient intensywności logarytmicznej sceny (log) i odwrotną głębię sceny względem klatki kluczowej, a my budujemy ich wykres w czasie rzeczywistym, aby śledzić i modelować na rozszerzonym lokalny obszar roboczy. Uaktualniamy również oszacowanie gradientu dla każdej klatki kluczowej do obrazu intensywności, co pozwala nam odzyskać w czasie rzeczywistym sekwencję intensywności podobną do wideo z superrozdzielczością przestrzenną i czasową z wejściowego strumienia zdarzeń o niskiej przepływności. Zgodnie z naszą najlepszą wiedzą, jest to pierwszy algorytm, który jest w stanie udowodnić, że jest w stanie śledzić ogólny ruch 6D wraz z rekonstrukcją dowolnej struktury, w tym jej intensywności, oraz rekonstrukcją wideo w skali szarości, które opiera się wyłącznie na danych z kamery zdarzeń. |
892fea843d58852a835f38087bc3b5102123f567 | Wiele schematów ramp | Schemat rampy A (t; k; n; S) jest protokołem służącym do dystrybucji sekretu wybranego wS wśród zbioruP składającego się z n uczestników w taki sposób, że: 1) zbiory uczestników o liczności większej lub równej k mogą zrekonstruować tajniki; 2) zbiory uczestników o liczności mniejszej lub równej tot nie mają informacji o s, natomiast 3) zbiory uczestników o liczności większej niż t i mniejszej ilości podziękowania mogą mieć „jakąś” informację o s. W tej korespondencji analizujemy wiele schematów rampy, które są protokołami do dzielenia wielu sekretów wśród zbioru P uczestników, przy użyciu różnych schematów ramp. W szczególności dowodzimy ścisłego dolnego ograniczenia wielkości akcji posiadanych przez każdego uczestnika oraz losowości dealera w schematach z wieloma rampami. |
ce148df015fc488ac6fc022dac3da53c141e0ea8 | Funkcja białka w medycynie precyzyjnej: głębokie zrozumienie dzięki uczeniu maszynowemu. | Medycyna precyzyjna i spersonalizowane wysiłki zdrowotne proponują wykorzystanie złożonej historii molekularnej, medycznej i rodzinnej, a także innych rodzajów danych osobowych w celu lepszego życia. Twierdzimy, że ten ambitny cel będzie wymagał zaawansowanych i wyspecjalizowanych rozwiązań uczenia maszynowego. Zwykłe wyłuskanie niektórych nisko wiszących wyników z bogactwa danych może mieć ograniczony potencjał. Zamiast tego musimy lepiej zrozumieć wszystkie części systemu, aby zdefiniować medycznie istotne przyczyny i skutki: jak poszczególne warianty sekwencji wpływają na poszczególne białka i szlaki? W jaki sposób te efekty z kolei wpływają na fenotyp zdrowotny lub chorobowy? W tym celu głębsze zrozumienie nie wypłynie po prostu z głębszego uczenia maszynowego, ale z bardziej wyraźnego skupienia się na zrozumieniu funkcji białek, sieci interakcji białek specyficznych dla kontekstu oraz wpływu zmienności na oba. |
38d34b02820020aac7f060e84bb6c01b4dee665a | Wpływ zarządzania projektowaniem i zarządzania procesami na jakość: badanie empiryczne | Ž . Zarządzanie projektami i zarządzanie procesami to dwa ważne elementy całościowego wdrażania TQM zarządzania jakością. Są drastycznie różne pod względem celów doskonalenia, widoczności i technik. W tym artykule ustalamy ramy dla identyfikacji synergicznych powiązań projektowania i zarządzania procesami z jakością operacyjną ® . Ž . wyniki w trakcie procesu produkcyjnego jakość wewnętrzna i po zastosowaniu w terenie jakość zewnętrzna produktów . Poprzez badanie praktyk jakościowych w 418 zakładach produkcyjnych z wielu branż, empirycznie pokazujemy, że zarówno wysiłki w zakresie projektowania, jak i zarządzania procesem mają równie pozytywny wpływ na wewnętrzne wyniki jakościowe, takie jak złom, przeróbka, wady, wydajność i zewnętrzne wyniki jakościowe, takie jak reklamacje , gwarancja, spory sądowe, udział w rynku. Szczegółowa analiza awaryjności pokazuje, że proponowany model synergii między projektowaniem a zarządzaniem procesami sprawdza się w przypadku dużych i małych firm; dla firm o różnym poziomie doświadczenia w TQM; oraz w różnych branżach o różnym poziomie konkurencji, logistycznej złożoności produkcji lub charakterystyce procesu produkcyjnego. Wreszcie, wyniki sugerują również, że uczenie się organizacji umożliwia dojrzałym firmom TQM bardziej rygorystyczne wdrażanie zarówno wysiłków projektowych, jak i procesowych, a ich synergia pomaga tym firmom osiągnąć wyniki lepszej jakości. Wyniki te wskazują, że aby osiągnąć lepsze wyniki jakościowe, firmy muszą zrównoważyć swoje wysiłki w zakresie projektowania i zarządzania procesami oraz wytrwać w długoterminowych ® . realizacji tych wysiłków. Ponieważ badanie obejmuje wszystkie sektory produkcyjne SIC 20 do 39 , wnioski te powinny pomóc firmom w każdej branży zrewidować ich priorytety pod względem względnych wysiłków w zarządzaniu projektowaniem i zarządzaniu procesem. q 2000 Elsevier Science B.V. Wszelkie prawa zastrzeżone. |
b09b43cacd45fd922f7f85b1f8514cb4a775ca5d | Podejście do wykrywania usług internetowych oparte na wyodrębnianiu wspólnych grup tematycznych | Usługi sieci Web przyciągnęły dużą uwagę projektantów i programistów aplikacji rozproszonych ze względu na ich rolę w abstrakcji i interoperacyjności między heterogenicznymi systemami oprogramowania, a rosnąca liczba aplikacji oprogramowania rozproszonego została opublikowana jako usługi sieci Web w Internecie. W obliczu rosnącej liczby usług internetowych i użytkowników usług, badacze w dziedzinie usług obliczeniowych podjęli próbę rozwiązania trudnego problemu, tj. jak szybko znaleźć odpowiednie usługi na podstawie zapytań użytkowników. Wiele wcześniejszych badań zostało zgłoszonych w tym kierunku. W niniejszym artykule przedstawiono nowatorskie podejście do wykrywania usług sieci Web oparte na modelach tematycznych. Proponowane podejście wydobywa wspólne grupy tematyczne z macierzy dystrybucji tematów usług wygenerowanej przez modelowanie tematów, a wyodrębnione wspólne grupy tematyczne można następnie wykorzystać do dopasowania zapytań użytkowników do odpowiednich usług internetowych, aby uzyskać lepszy kompromis między dokładnością wykrywania usług i liczbę kandydujących usług sieci Web. Wyniki eksperymentów przeprowadzonych na dwóch publicznie dostępnych zestawach danych pokazują, że w porównaniu z kilkoma powszechnie stosowanymi podejściami, proponowane podejście może utrzymać wydajność wykrywania usług na podwyższonym poziomie poprzez znaczne zmniejszenie liczby kandydujących usług internetowych, co prowadzi do szybszego czasu odpowiedzi . |
c108437a57bd8f8eaed9e26360ee100074e3f3fc | Możliwości obliczeniowe grafowych sieci neuronowych | W niniejszym artykule rozważymy właściwości aproksymacyjne niedawno wprowadzonego modelu sieci neuronowej zwanego grafową siecią neuronową (GNN), który może być wykorzystany do przetwarzania danych wejściowych o określonej strukturze, np. grafów acyklicznych, grafów cyklicznych oraz grafów skierowanych lub nieskierowanych. Ta klasa sieci neuronowych implementuje funkcję tau(G,n) isw Rm, która odwzorowuje graf G i jeden z jego węzłów n na m-wymiarową przestrzeń euklidesową. Charakteryzujemy funkcje, które mogą być aproksymowane przez GNN, z prawdopodobieństwem do dowolnego określonego stopnia precyzji. Ten zestaw zawiera mapy, które spełniają właściwość zwaną zachowaniem rozwijającej się równoważności i zawiera większość praktycznie użytecznych funkcji na grafach; jedynym znanym wyjątkiem jest sytuacja, gdy wykres wejściowy zawiera określone wzorce symetrii, gdy rozwijająca się równoważność może nie zostać zachowana. Wynik można uznać za rozszerzenie uniwersalnej właściwości aproksymacji ustalonej dla klasycznych sieci neuronowych ze sprzężeniem do przodu (FNN). Do pokazania możliwości obliczeniowych proponowanego modelu wykorzystano kilka przykładów eksperymentalnych. |
28d3ec156472c35ea8e1b7acad969b725111fe56 | Hipikat: pamięć projektowa do tworzenia oprogramowania | Trudności socjologiczne i techniczne, takie jak brak nieformalnych spotkań, mogą utrudniać nowym członkom nieskolokowanych zespołów programistycznych uczenie się od bardziej doświadczonych kolegów. Aby rozwiązać tę sytuację, opracowaliśmy narzędzie o nazwie Hipikat, które zapewnia programistom wydajny i efektywny dostęp do pamięci grupowej dla projektu rozwoju oprogramowania, który jest niejawnie utworzony przez wszystkie artefakty wytworzone podczas rozwoju. Ta pamięć projektu jest budowana automatycznie z niewielką lub bez zmian w istniejących praktykach pracy. Po opisie narzędzia Hipikat, przedstawiamy dwa badania sprawdzające przydatność Hipikata w zadaniach modyfikacji oprogramowania. Jedno z badań oceniło przydatność zaleceń Hipikata na próbie 20 zadań modyfikacji wykonanych w środowisku Eclipse Java IDE podczas opracowywania wersji 2.1 oprogramowania Eclipse. Opisujemy badanie, przedstawiamy ilościowe miary wydajności Hipikata i opisujemy szczegółowo trzy przypadki, które ilustrują szereg problemów, które zidentyfikowaliśmy w wynikach. W drugim badaniu ocenialiśmy, czy programiści, którzy są nowicjuszami w projekcie, mogą skorzystać z artefaktów zalecanych przez Hipikat z pamięci projektu. Opisujemy badanie, przedstawiamy obserwacje jakościowe i sugerujemy implikacje wykorzystania pamięci projektu jako pomocy w nauce dla nowicjuszy w projekcie. |
334c4806912d851ef2117e67728cfa624dbec9a3 | Pakiet metryk do projektowania zorientowanego obiektowo | Biorąc pod uwagę centralną rolę, jaką rozwój oprogramowania odgrywa w dostarczaniu i stosowaniu technologii informatycznych, menedżerowie coraz częściej koncentrują się na doskonaleniu procesów w obszarze rozwoju oprogramowania. Zapotrzebowanie to zachęciło do wprowadzenia szeregu nowych i/lub ulepszonych podejść do tworzenia oprogramowania, z których być może najbardziej znaczącym jest zorientowanie obiektowe (OO). Ponadto skupienie się na doskonaleniu procesów zwiększyło zapotrzebowanie na miary oprogramowania lub metryki, za pomocą których można zarządzać procesem. Potrzeba takich wskaźników jest szczególnie dotkliwa, gdy organizacja przyjmuje nową technologię, dla której ustalone praktyki nie zostały jeszcze opracowane. Niniejsze badanie odpowiada na te potrzeby poprzez opracowanie i wdrożenie nowego zestawu metryk do projektowania obiektowego. Metryki opracowane w poprzednich badaniach, przyczyniające się do zrozumienia w tej dziedzinie procesów tworzenia oprogramowania, były generalnie przedmiotem poważnej krytyki, w tym braku podstawy teoretycznej. Za Wandem i Weberem podstawą teoretyczną wybraną dla metryk była ontologia Bunge. Opracowuje się sześć metryk projektowych, a następnie analizuje je pod kątem proponowanego zestawu zasad pomiaru Weyukera. Następnie opracowano i wdrożono zautomatyzowane narzędzie do gromadzenia danych w celu zebrania empirycznej próbki tych wskaźników w dwóch lokalizacjach terenowych w celu wykazania ich wykonalności i zasugerowania sposobów, w jakie menedżerowie mogą wykorzystać te wskaźniki do doskonalenia procesów. „A Metrics Suite For Object Oriented Design” Shyam R. Chidamber Chris F. Kemerer Warunki indeksu CR |
383ca85aaca9f306ea7ae04fb0b6b76f1e393395 | Dwa studia przypadków rozwoju oprogramowania open source: Apache i Mozilla | Według jego zwolenników, rozwój oprogramowania w stylu open source może z powodzeniem konkurować, a być może w wielu przypadkach wypierać tradycyjne komercyjne metody rozwoju. Aby rozpocząć badanie takich twierdzeń, analizujemy dane z dwóch głównych projektów open source, serwera WWW Apache i przeglądarki Mozilla. Korzystając z archiwów e-mail z historią zmian kodu źródłowego i raportami o problemach, określamy ilościowo aspekty udziału programistów, wielkość zespołu, własność kodu, produktywność, gęstość defektów i interwały rozwiązywania problemów dla tych projektów OSS. Rozwijamy kilka hipotez porównując projekt Apache z kilkoma projektami komercyjnymi. Następnie testujemy i udoskonalamy kilka z tych hipotez na podstawie analizy danych Mozilli. Kończymy przemyśleniami na temat perspektyw wysokowydajnych hybryd procesów komercyjnych/open source. |
3ea9cd35f39e8c128f39f13148e91466715f4ee2 | Program do porównywania plików | Program do porównywania plików tworzy listę różnic między dwoma plikami. Różnice te można ująć w linie, m.in. mówiąc, które wiersze należy wstawić, usunąć lub przenieść, aby przekonwertować pierwszy plik na drugi. Alternatywnie lista różnic może identyfikować poszczególne bajty. Porównania bajtowe są przydatne w przypadku plików nietekstowych, takich jak skompilowane programy, które nie są podzielone na wiersze. Przyjęte tutaj podejście polega na generowaniu tylko instrukcji wstawiania lub usuwania całych wierszy. Ponieważ linie są traktowane jako niepodzielne obiekty, pliki mogą być traktowane jako zawierające linie składające się z jednego symbolu. Innymi słowy, plik n-wierszowy jest modelowany przez ciąg n symboli. Mówiąc bardziej formalnie, problem porównywania plików można przeformułować w następujący sposób. Odległość edycji między dwoma ciągami symboli to długość najkrótszej sekwencji wstawiania i usuwania, która spowoduje konwersję pierwszego ciągu na drugi. Celem jest zatem napisanie programu, który oblicza odległość edycji między dwoma dowolnymi ciągami symboli. Ponadto program musi jawnie utworzyć możliwie najkrótszy skrypt edycyjny (tj. sekwencję poleceń edycyjnych) dla podanych ciągów. Wypróbowano inne podejścia. Na przykład Tichy ' omawia narzędzie do porównywania plików, które określa, w jaki sposób jeden plik może być skonstruowany z innego przez kopiowanie bloków wierszy i dołączanie wierszy. Jednak możliwość ekonomicznego generowania najkrótszych możliwych skryptów edycyjnych zależy w dużej mierze od repertuaru instrukcji, które są dozwolone w skryptach.2 Algorytmy porównywania plików mają wiele potencjalnych zastosowań poza tworzeniem zestawu poleceń edycyjnych do odczytania przez kogoś, kto próbuje zrozumieć ewolucja programu lub dokumentu. Na przykład skrypty edycji mogą być instrukcjami edytora tekstu, które są zapisywane w celu uniknięcia kosztów przechowywania prawie identycznych plików. Zamiast przechowywania |
508119a50e3d4e8b7116c1b56a002de492b2270b | Wykrywanie obiektów z lokalizacją dźwięku 3D dla Microsoft HoloLens — oparte na głębokim uczeniu podejście zastępowania czujników dla osób niewidomych | Odnajdywanie podstawowych przedmiotów na co dzień jest trudnym, ale powszechnym zadaniem osób niewidomych. Ten artykuł przedstawia wdrożenie noszonego, opartego na głębokim uczeniu, podejścia do wykrywania obiektów w kontekście upośledzenia wzroku lub ślepoty. Prototyp ma na celu zastąpienie uszkodzonego oka użytkownika czujnikami technicznymi. Dzięki skanowaniu otoczenia prototyp zapewnia przegląd sytuacyjny obiektów wokół urządzenia. Wykrywanie obiektów zostało zaimplementowane przy użyciu modelu uczenia głębokiego działającego niemal w czasie rzeczywistym o nazwie YOLOv2. Model obsługuje detekcję 9000 obiektów. Prototyp może wyświetlać i odczytywać nazwy obiektów rozszerzonych, które można wybrać za pomocą poleceń głosowych i wykorzystać jako wskazówki dla użytkownika, wykorzystując informację zwrotną audio 3D. Zapowiedź odległości wybranego obiektu pochodzi z modelu przestrzennego HoloLens. Rozwiązanie do noszenia oferuje możliwość efektywnego lokalizowania obiektów w celu wsparcia orientacji bez intensywnego szkolenia użytkownika. Wstępna ocena objęła wskaźnik wykrywalności rozpoznawania mowy oraz czasy odpowiedzi serwera. |
c0a39b1b64100b929ec77d33232513ec72089a2e | Angielski jako formalny język specyfikacji | PENG to przetwarzalny komputerowo, kontrolowany język naturalny, przeznaczony do pisania jednoznacznych i precyzyjnych specyfikacji. PENG obejmuje ścisły podzbiór standardowego języka angielskiego i jest precyzyjnie zdefiniowany przez kontrolowaną gramatykę i kontrolowany leksykon. W przeciwieństwie do innych języków kontrolowanych, autor nie musi znać wprost ograniczeń gramatycznych. ECOLE, edytor tekstu z wyprzedzeniem, wskazuje ograniczenia podczas pisania specyfikacji. Kontrolowany leksykon zawiera specyficzne dla domeny słowa treści, które autor może na bieżąco definiować oraz predefiniowane słowa funkcyjne. Specyfikacje napisane w PENG można deterministycznie przełożyć na struktury reprezentacji dyskursu, aby poradzić sobie z anaforą i presupozycjami, a także na logikę predykatów pierwszego rzędu. Aby przetestować formalne właściwości PENG, przeformułowaliśmy łamigłówkę walca Schuberta w PENG, przetłumaczyliśmy wynikową specyfikację za pomocą struktur reprezentacji dyskursu na logikę predykatów pierwszego rzędu z równością i udowodniliśmy wniosek walca za pomocą OTTER, standardowego dowodzenia twierdzenia. |
f9cf246008d745f883914d925567bb36df806613 | Automatyczne wciąganie i praca w pełnym cyklu dla klasy powietrznych generatorów energii wiatrowej | Powietrzne systemy energii wiatrowej mają na celu zbieranie mocy wiatrów wiejących na wysokościach wyższych niż osiągają konwencjonalne turbiny wiatrowe. Wykorzystują one latającą strukturę na uwięzi, zwykle skrzydło, i wykorzystują siłę nośną do wytwarzania energii elektrycznej. W przypadku systemów naziemnych, gdzie siła trakcyjna na uwięzi jest wykorzystywana do napędzania generatora na ziemi, realizowany jest dwufazowy cykl zasilania: jedna faza do wytwarzania mocy, gdzie linka jest rozwijana pod wysokim ciśnieniem siła trakcyjna i druga faza, w której linka jest cofana przy niższym obciążeniu. Problem sterowania skrzydłem na uwięzi w tej drugiej fazie, fazie cofania, został tutaj rozwiązany poprzez zaproponowanie dwóch możliwych strategii sterowania. Przedstawiono analizy teoretyczne, symulacje numeryczne i wyniki eksperymentalne, aby pokazać skuteczność obu podejść. Na koniec przedstawiono wyniki eksperymentalne pełnych autonomicznych cykli wytwarzania energii i porównano je z wynikami modeli opartych na pierwszej zasadzie. |
53c544145d2fe5fe8c44584f44f36f74393b983e | Symulacja formacji obiektu i ludzkiej skóry w zadaniu chwytania | W artykule poruszono problem symulacji odkształceń między przedmiotami a ręką o charakterze syntetycznym podczas procesu chwytania. Metoda numeryczna oparta na teorii elementów skończonych pozwala na uwzględnienie sił czynnych palców na przedmiot i sił reaktywnych przedmiotu na palcach. Metoda poprawia kontrolę nad zachowaniem syntetycznego człowieka w systemie animacji na poziomie zadania, ponieważ dostarcza informacji o środowisku syntetycznego człowieka, a więc może być porównana do zmysłu dotyku. Teoria elementów skończonych stosowana obecnie w inżynierii wydaje się jednym z najlepszych podejść do modelowania zarówno sprężystych, jak i plastycznych odkształceń obiektów, a także wstrząsów z penetracją lub bez penetracji między odkształcalnymi obiektami. Pokazujemy, że wewnętrzne właściwości metody opartej na kompozycji/dekompozycji elementów mają wpływ na animację komputerową. Stwierdzamy również, że zastosowanie tej samej metody do modelowania zarówno obiektów, jak i ciał ludzkich poprawia modelowanie zarówno obiektów, jak i ciał ludzkich poprawia modelowanie kontaktów między nimi. Ponadto umożliwia realistyczną deformację obwiedni palców ludzkich porównywalną z istniejącymi metodami. Aby pokazać, czego możemy oczekiwać od metody, stosujemy ją do chwytania i naciskania piłki. Nasze rozwiązanie problemu chwytania opiera się na komendach przemieszczania zamiast komendach siły stosowanych w robotyce i ludzkich zachowaniach. |
0eaa75861d9e17f2c95bd3f80f48db95bf68a50c | Elektromigracja i jej wpływ na projektowanie fizyczne w technologiach przyszłości | Elektromigracja (EM) jest jednym z kluczowych problemów dotyczących niezawodności połączeń w projektowaniu układów scalonych (IC). Chociaż projektanci urządzeń analogowych już od jakiegoś czasu zdają sobie sprawę z problemu EM, teraz dotyczy to również obwodów cyfrowych. Wykład dotyczy podstawowych problemów projektowych i ich wpływu na elektromigrację podczas fizycznego projektowania połączeń. Intencją jest zwiększenie granic gęstości prądu w interkonekcie poprzez zastosowanie środków hamujących elektromigrację, takich jak efekty krótkotrwałe i zbiornikowe. Wykorzystanie tych efektów na etapie projektowania może w przyszłości częściowo złagodzić problemy związane z EM w przepływach projektowych układów scalonych. |
24ff5027e7042aeead47ef3071f1a023243078bb | Optymalizacja zintegrowanych sieci kosmos-powietrze-ziemia za pomocą sztucznej inteligencji | Powszechnie wiadomo, że rozwój tradycyjnych technologii komunikacji naziemnej nie może zapewnić wszystkim użytkownikom sprawiedliwych i wysokiej jakości usług ze względu na ograniczone zasoby sieciowe i ograniczone obszary zasięgu. W celu uzupełnienia połączenia naziemnego, zwłaszcza dla użytkowników na obszarach wiejskich, dotkniętych klęską żywiołową lub innych trudnych w obsłudze obszarach, do przekazywania sygnałów komunikacyjnych wykorzystano satelity, bezzałogowe statki powietrzne (UAV) i balony. Na tej podstawie zaproponowano zintegrowane sieci przestrzeń-powietrze-ziemia (SAGIN) w celu poprawy jakości doświadczeń użytkowników (QoE). Jednak w porównaniu z istniejącymi sieciami, takimi jak sieci ad hoc i sieci komórkowe, SAGIN są znacznie bardziej złożone ze względu na różne cechy trzech segmentów sieci. Aby poprawić wydajność SAGIN, naukowcy stoją przed wieloma bezprecedensowymi wyzwaniami. W tym artykule proponujemy technikę sztucznej inteligencji (AI) do optymalizacji SAGIN, ponieważ technika AI wykazała swoje główne zalety w wielu zastosowaniach. Najpierw analizujemy kilka głównych wyzwań SAGIN i wyjaśniamy, jak te problemy może rozwiązać sztuczna inteligencja. Następnie rozważymy bilans ruchu satelitarnego jako przykład i proponujemy metodę opartą na głębokim uczeniu w celu poprawy wydajności kontroli ruchu. Wyniki symulacji oceniają, że technika uczenia głębokiego może być skutecznym narzędziem do poprawy wydajności SAGIN. |
2c6835e8bdb8c70a9c3aa9bd2578b01dd1b93114 | RY-ON Z REGIONEM ODZIEŻOWYM | Proponujemy wirtualną metodę przymiarki opartą na generatywnych sieciach kontradyktoryjnych (GAN). Biorąc pod uwagę regiony odzieży, metoda ta pozwala nam lepiej odzwierciedlić wzór odzieży niż warunkowa analogia GAN (CAGAN), istniejąca wirtualna metoda przymierzania oparta na GAN. Nasza metoda najpierw uzyskuje region odzieży na osobie, używając modelu analizowania człowieka, którego nauczyliśmy się za pomocą zestawu danych o dużej skali. Następnie, korzystając z pozyskanego regionu, część ubrania jest usuwana z obrazu człowieka. Żądany obraz odzieży jest dodawany do pustego obszaru. Sieć uczy się, jak nakładać nową odzież na obszar ubioru ludzi. Wyniki wskazują na możliwość odzwierciedlenia wzoru ubioru. Ponadto obraz ubrania, które dana osoba pierwotnie nosi, staje się niepotrzebny podczas badania. W eksperymentach generujemy obrazy przy użyciu obrazów zebranych z Zaland (modnej witryny e-commerce). |
38a70884a93dd6912404519a779cc497965feff1 | Stereotypy osób z trudnościami w uczeniu się: poglądy studentów z trudnościami w uczeniu się i bez nich. | Aby zbadać możliwe przyczyny niskich wskaźników samoidentyfikacji wśród studentów z trudnościami w uczeniu się (LD), poprosiliśmy studentów (38 z LD, 100 bez LD) uczęszczających na dwa duże, publiczne, intensywnie prowadzące badania naukowe uniwersytety o wypełnienie kwestionariusza opracowanego w celu oceny stereotypów o osobach z LD i koncepcjach zdolności. Odpowiedzi zostały zakodowane w sześciu kategoriach stereotypów dotyczących rozwoju lokalnego (niska inteligencja, możliwa kompensacja, deficyt procesu, niespecyficzny stan nie do pokonania, działanie systemu i inne) oraz w trzy kategorie koncepcji inteligencji (podmiot, przyrostowy, żadna). Zgodnie z wcześniejszymi ustaleniami, najczęstszy metastereotyp zgłaszany przez osoby z obu grup dotyczył ogólnie niskich zdolności. Ponadto uczniowie z LD częściej opowiadali się za inteligencją jako stałą cechą. Podsumowując, wyniki badania mają wpływ na nasze zrozumienie czynników, które wpływają na samoidentyfikację i samoobronę na poziomie policealnym. |
cc6dc5a3e8a18a0aaab7cbe8cee22bf3ac92f0bf | Metody kontroli współbieżności w rozproszonej bazie danych: przegląd i porównanie | W ostatnich latach dokonano znaczących ulepszeń w zakresie wydajności systemów rozproszonych baz danych. Rozproszona baza danych składa się z niektórych witryn, które są ze sobą połączone za pomocą połączeń sieciowych. W tym systemie, jeśli nie zostanie dokonana dobra harmonizacja pomiędzy różnymi transakcjami, może to spowodować niespójność bazy danych. W dzisiejszych czasach, ze względu na złożoność wielu witryn i metod ich łączenia, trudno jest szeregowo rozszerzać różne modele w rozproszonej bazie danych. Podstawowym celem kontroli współbieżności w rozproszonej bazie danych jest zapewnienie braku ingerencji w dostępność wspólnej bazy danych przez różne witryny. Zaproponowano zastosowanie różnych algorytmów kontroli współbieżności w rozproszonych systemach baz danych. W niniejszym artykule przedstawiono i porównano niektóre dostępne metody kontroli współbieżności w rozproszonej bazie danych. |
45e2e2a327ea696411b212492b053fd328963cc3 | Korzystanie z aplikacji zdrowotnych wśród użytkowników telefonów komórkowych w USA: analiza trendów według stanu choroby przewlekłej | TŁO
Aplikacje mobilne mogą służyć jako interwencja w styl życia w zakresie zdrowia publicznego w celu promowania dobrego samopoczucia i łagodzenia stanów przewlekłych, jednak niewiele wiadomo na temat tego, jak osoby cierpiące na choroby przewlekłe używają lub postrzegają aplikacje mobilne.
CEL
Celem tego badania było zbadanie zachowań i wyobrażeń na temat aplikacji na telefony komórkowe dla zdrowia osób z chorobami przewlekłymi.
METODY
Dane zostały zebrane z ogólnokrajowego, przekrojowego badania 1604 użytkowników telefonów komórkowych w Stanach Zjednoczonych, które oceniało korzystanie z m-zdrowia, przekonania i preferencje. W badaniu tym zbadano korzystanie z aplikacji zdrowotnych, powód pobierania i postrzeganą skuteczność w przypadku stanu przewlekłego.
WYNIKI
Wśród uczestników posiadanie od 1 do 5 aplikacji zgłosiło 38,9% (314/807) osób bez dolegliwości i 6,6% (24/364) osób z nadciśnieniem. Korzystanie z aplikacji zdrowotnych 2 lub więcej razy dziennie deklarowało 21,3% (172/807) respondentów bez schorzeń, 2,7% (10/364) z nadciśnieniem, 13,1% (26/198) z otyłością, 12,3% (20 /163) z cukrzycą, 12,0% (32/267) z depresją i 16,6% (53/319) z wysokim poziomem cholesterolu. Wyniki regresji logistycznej nie wykazały istotnej różnicy w pobieraniu aplikacji zdrowotnych między osobami z chorobami przewlekłymi i bez (P>0,05). W porównaniu z osobami o słabym stanie zdrowia pobieranie aplikacji zdrowotnych było bardziej prawdopodobne wśród osób o bardzo dobrym stanie zdrowia (iloraz szans [OR] 3,80, 95% CI 2,38-6,09, P<0,001) i doskonałym stanie zdrowia (OR 4,77, 95). % CI 2,70-8,42, P<0,001). Podobnie, w porównaniu z osobami, które zgłaszają, że nigdy lub rzadko angażują się w aktywność fizyczną, pobieranie aplikacji zdrowotnych było bardziej prawdopodobne wśród osób, które zgłaszały aktywność fizyczną 1 dzień w tygodniu (OR 2,47, 95% CI 1,6-3,83, P<0,001), 2 dni na tydzień (OR 4,77, 95% CI 3,27-6,94, p<0,001), 3 do 4 dni w tygodniu (OR 5,00, 95% CI 3,52-7,10, p<0,001) i 5 do 7 dni w tygodniu (OR 4,64, 95% CI 3,11-6,92, p<0,001). Wszystkie wyniki regresji logistycznej kontrolowane pod kątem wieku, płci, rasy lub pochodzenia etnicznego.
WNIOSKI
Wyniki tego badania sugerują, że osoby o słabym samoocenie stanu zdrowia i niskim wskaźniku aktywności fizycznej, prawdopodobnie te, które najbardziej skorzystają na aplikacjach zdrowotnych, najrzadziej zgłaszały pobieranie i używanie tych narzędzi zdrowotnych. |
71795f9f511f6948dd67aff7e9725c08ff1a4c94 | Hadoop+Aparapi: Ułatwienie heterogenicznego programowania MapReduce | Ostatnio programiści zaczęli wykorzystywać możliwości GPU maszyn działających w chmurze. Korzystanie z procesorów graficznych może zmniejszyć liczbę węzłów wymaganych do wykonania obliczeń poprzez zwiększenie wydajności na węzeł. Łączymy Hadoop, szeroko stosowany framework MapReduce, z Aparapi, nowym narzędziem do konwersji Java-to-OpenCL firmy AMD. Proponujemy łatwe w użyciu API, które pozwala na łatwą implementację algorytmów MapReduce wykorzystujących GPU. Nasz interfejs API ulepsza Hadoop, jeszcze bardziej ukrywając złożoność programowania GPU, co pozwala programiście skoncentrować się na swoim algorytmie. Proponujemy również towarzyszącą refaktoryzację, która pozwala programiście określić część GPU obliczeń mapy za pomocą bardzo lekkiej adnotacji. |
8cfb12304856268ee438ccb16e4b87960c7349e0 | Przegląd Internetu rzeczy (IoT) | Internet, rewolucyjny wynalazek, zawsze przekształca się w nowy rodzaj sprzętu i oprogramowania, co czyni go nieuniknionym dla każdego. Formą komunikacji, którą teraz widzimy, jest człowiek-człowiek lub człowiek-urządzenie, ale Internet Rzeczy (IoT) obiecuje wspaniałą przyszłość dla Internetu, w którym rodzajem komunikacji jest maszyna-maszyna (M2M). Niniejszy dokument ma na celu przedstawienie kompleksowego przeglądu scenariusza IoT oraz przegląd jego technologii wspomagających i sieci czujników. Opisuje również sześciowarstwową architekturę IoT i wskazuje powiązane z nią kluczowe wyzwania. |
a39faa00248abb3984317f2d6830f485cb5e1a0d | chemii analitycznej Czujniki do noszenia i implantacji do zastosowań biomedycznych Hatice | Mobilne technologie medyczne oferują wielką obietnicę obniżenia kosztów opieki zdrowotnej i poprawy opieki nad pacjentem. Technologie ubieralne i wszczepialne przyczyniają się do transformacji w erze zdrowia mobilnego pod względem poprawy opieki zdrowotnej i wyników zdrowotnych oraz dostarczania wskazówek w czasie rzeczywistym na temat lepszego zarządzania zdrowiem i monitorowania. W tym artykule dokonujemy przeglądu biomedycznych zastosowań noszonych i wszczepialnych urządzeń medycznych i czujników, począwszy od monitorowania po zapobieganie chorobom, a także materiałów używanych do produkcji tych urządzeń oraz standardów dotyczących bezprzewodowych urządzeń medycznych i aplikacji mobilnych. Na zakończenie omówimy niektóre z wyzwań technicznych związanych z technologią do noszenia i implantacji oraz możliwe rozwiązania w celu przezwyciężenia tych trudności. |
e749e6311e25eb8081672742e78c427ce5979552 | Skuteczne zastosowanie wzorców doskonalenia procesów w procesach biznesowych | Poprawa efektywności operacyjnej i wydajności procesów jest podstawowym zadaniem zarządzania procesami biznesowymi (BPM). Istnieje wiele propozycji wzorców doskonalenia procesów (PIP) jako praktyk, które mają na celu wspieranie tego celu. Wybór i wdrożenie odpowiednich PIP jest zatem ważnym warunkiem wstępnym tworzenia świadomych procesów systemów informatycznych w przedsiębiorstwach. Niemniej jednak nadal istnieje luka w zakresie walidacji PIP pod kątem ich rzeczywistej wartości biznesowej dla konkretnego scenariusza aplikacji przed poniesieniem inwestycji wdrożeniowych. W oparciu o badania empiryczne oraz doświadczenia z projektów BPM, w niniejszym artykule zaproponowano metodę sprostania temu wyzwaniu. Nasze podejście do oceny wzorców doskonalenia procesów uwzględnia rzeczywiste ograniczenia, takie jak rola starszych interesariuszy lub koszt dostosowania dostępnych systemów informatycznych. Ponadto przedstawia możliwości doskonalenia procesów, które wynikają z infrastruktury informatycznej dostępnej dla organizacji, w szczególności w odniesieniu do połączenia planowania zasobów przedsiębiorstwa z inteligencją procesów biznesowych. Nasze podejście ilustruje rzeczywisty proces biznesowy, począwszy od zarządzania zasobami ludzkimi. Ta ostatnia obejmuje wolumen transakcji około 29 000 wystąpień procesów w okresie 1 roku. Ogólnie rzecz biorąc, nasze podejście umożliwia zarówno praktykom, jak i badaczom racjonalną ocenę PIP przed podjęciem jakiejkolwiek decyzji o wdrożeniu procesu. |
d5ecb372f6cbdfb52588fbb4a54be21d510009d0 | Studium kolejności urodzeń, wyników w nauce i osobowości | Badanie to miało na celu zbadanie wpływu kolejności urodzeń na osobowość i wyniki w nauce wśród 120 Malezyjczyków. Poza tym miał również na celu zbadanie związku między osobowością a osiągnięciami akademickimi. Do badania włączono 30 pierworodnych, 30 średnich dzieci, 30 ostatnich i 30 jedynaków, których średnia wieku wynosiła 20,0 lat (SD = 1,85). Wyniki uczestników Sijil Pelajaran Malaysia (SPM) zostały zarejestrowane, a ich osobowość została oceniona za pomocą 10-elementowego Inwentarza Osobowości (TIPI). Wyniki wykazały, że uczestniczki o różnych pozycjach urodzeniowych nie różniły się istotnie pod względem osobowości i wyników w nauce. Jednak korelacja Pearsona wykazała, że ekstrawersja korelowała dodatnio z wynikami w nauce. Słowa kluczowe kolejność urodzenia; osobowość; osiągnięcia akademickie |
6193ece762c15b7d8a958dc64c37e858cd873b8a | Kompaktowa drukowana antena okresowo-logiczna z załadowanym odgałęzieniem | W artykule przedstawiono kompaktową drukowaną antenę dipolową log-periodyczną (LPDA) z rozłożonym obciążeniem indukcyjnym. Dodając króciec na górze każdego elementu, wymiar LPAD można zmniejszyć o 60%. Antena uzyskała pasmo impedancji 10GHz (8GHz-18GHz). Zgodnie z wynikami symulacji, zaprojektowana konstrukcja zapewnia stabilne wzorce promieniowania w całym zakresie częstotliwości roboczych. |
2d9416485091e6af3619c4bc9323a0887d450c8a | LSDA: Wykrywanie na dużą skalę poprzez adaptację | Poważnym wyzwaniem w skalowaniu wykrywania obiektów jest trudność w uzyskaniu oznakowanych obrazów dla dużej liczby kategorii. Ostatnio głębokie konwolucyjne sieci neuronowe (CNN) okazały się wyraźnymi zwycięzcami w testach porównawczych klasyfikacji obiektów, częściowo dzięki szkoleniu z obrazami klasyfikacyjnymi oznaczonymi 1,2 mln+. Niestety tylko niewielka część tych etykiet jest dostępna do zadania wykrywania. Znacznie taniej i łatwiej jest zbierać duże ilości etykiet na poziomie obrazu z wyszukiwarek niż zbierać dane o wykrywaniu i oznaczać je precyzyjnymi ramkami ograniczającymi. W tym artykule proponujemy wykrywanie na dużą skalę poprzez adaptację (LSDA), algorytm, który uczy się różnicy między tymi dwoma zadaniami i przekazuje tę wiedzę do klasyfikatorów kategorii bez danych z adnotacjami w polu ograniczającym, zamieniając je w detektory. Nasza metoda ma potencjał, aby umożliwić wykrywanie dziesiątek tysięcy kategorii, które nie mają adnotacji z obwiednią, ale mają mnóstwo danych klasyfikacyjnych. Ocena wyzwania wykrywania ImageNet LSVRC-2013 pokazuje skuteczność naszego podejścia. Algorytm ten umożliwia nam wytworzenie detektora >7,6K przy użyciu dostępnych danych klasyfikacji z węzłów liści w drzewie ImageNet. Dodatkowo pokazujemy, jak zmodyfikować naszą architekturę, aby uzyskać szybki detektor (działający z prędkością 2 klatek na sekundę dla detektora 7.6K). Modele i oprogramowanie są dostępne na stronie lsda.berkeleyvision.org. |
0f28cbfe0674e0af4899d21dd90f6f5d0d5c3f1b | Przypowieść o Google Flu: Pułapki w analizie Big Data | W lutym 2013 r. Google Flu Trends (GFT) trafiło na nagłówki gazet, ale nie z powodu, na który mieliby nadzieję kierownicy Google lub twórcy systemu śledzenia grypy. Nature poinformował, że GFT przewiduje ponad dwukrotnie większy odsetek wizyt lekarskich z powodu chorób grypopodobnych (ILI) niż Centrum Kontroli i Prewencji Chorób (CDC), które opiera swoje szacunki na raportach z nadzoru z laboratoriów w całych Stanach Zjednoczonych (1, 2). Stało się tak pomimo faktu, że GFT został zbudowany w celu przewidywania raportów CDC. Biorąc pod uwagę, że GFT jest często uważany za przykładowe wykorzystanie dużych zbiorów danych (3, 4), jakie wnioski możemy wyciągnąć z tego błędu? |
cc43c080340817029fd497536cc9bd39b0a76dd2 | Mobilność człowieka w podejściu ciągłym | Mobilność człowieka jest badana przy użyciu podejścia continuum, które pozwala obliczyć prawdopodobieństwo zaobserwowania podróży do dowolnego dowolnego regionu oraz przepływów między dowolnymi dwoma regionami. Rozważany opis oferuje ogólne i ujednolicone ramy, w których proponowane wcześniej modele mobilności, takie jak model grawitacyjny, model szans interweniujących i ostatnio wprowadzony model promieniowania, są naturalnie wynikiem szczególnych przypadków. Opracowano nową formę modelu promieniowania, a jego ważność zbadano przy użyciu danych obserwacyjnych oferowanych przez dojazdy do pracy uzyskane ze zbioru danych spisowych w Stanach Zjednoczonych oraz strumieni mobilności uzyskanych z danych z telefonów komórkowych zebranych w kraju zachodnioeuropejskim. Nowy paradygmat modelowania przedstawiony w tym opisie sugeruje, że złożone cechy topologiczne obserwowane w dużych sieciach mobilności i transportu mogą być wynikiem prostego procesu stochastycznego zachodzącego na niejednorodnym krajobrazie. |
15e8961e8f9d1fb5060c3284a5bdcc09f2fc1ba6 | Zautomatyzowana diagnostyka jaskry za pomocą cyfrowych obrazów dna oka | Jaskra to choroba nerwu wzrokowego spowodowana wzrostem ciśnienia wewnątrzgałkowego oka. Jaskra wpływa głównie na tarczę nerwu wzrokowego poprzez zwiększenie rozmiaru miseczki. Może prowadzić do ślepoty, jeśli nie zostanie wykryta i leczona we właściwym czasie. Wykrywanie jaskry za pomocą optycznej tomografii koherentnej (OCT) i tomografii siatkówkowej Heidelberga (HTZ) jest bardzo kosztowne. W pracy przedstawiono nowatorską metodę wykrywania jaskry za pomocą cyfrowych obrazów dna oka. Techniki cyfrowego przetwarzania obrazu, takie jak przetwarzanie wstępne, operacje morfologiczne i progowanie, są szeroko stosowane do automatycznego wykrywania tarczy nerwu wzrokowego, naczyń krwionośnych i obliczania cech. Wyodrębniliśmy takie cechy, jak stosunek kubka do dysku (c/d), stosunek odległości między środkiem tarczy nerwu wzrokowego a głową nerwu wzrokowego do średnicy tarczy nerwu wzrokowego oraz stosunek powierzchni naczyń krwionośnych po stronie dolno-górnej do powierzchni naczynie krwionośne po stronie nosowo-skroniowej. Te cechy są weryfikowane przez klasyfikację obrazów normalnych i obrazów jaskry za pomocą klasyfikatora sieci neuronowych. Wyniki przedstawione w niniejszej pracy wskazują, że cechy te mają znaczenie kliniczne w wykrywaniu jaskry. Nasz system jest w stanie automatycznie klasyfikować jaskrę z czułością i swoistością odpowiednio 100% i 80%. |
36b3865f944c74c6d782c26dfe7be04ef9664a67 | Warunkowe generatywne sieci przeciwstawne do wzmacniania mowy i weryfikacji głośników odpornej na hałas | Poprawa działania systemu mowy w hałaśliwym otoczeniu pozostaje trudnym zadaniem, a wzmacnianie mowy (SE) jest jedną ze skutecznych technik rozwiązania tego problemu. Zmotywowani obiecującymi wynikami generatywnych sieci kontradyktoryjnych (GAN) w różnych zadaniach przetwarzania obrazu, badamy potencjał warunkowych sieci GAN (cGAN) dla SE, a w szczególności korzystamy ze struktury przetwarzania obrazu zaproponowanej przez Isola i in. . [1], aby nauczyć się mapowania ze spektrogramu zaszumionej mowy na ulepszony odpowiednik. SE cGAN składa się z dwóch sieci, trenowanych w sposób kontradyktoryjny: generatora, który próbuje wzmocnić wejściowy zaszumiony spektrogram oraz dyskryminatora, który próbuje odróżnić rozszerzone spektrogramy dostarczone przez generator od czystych z bazy danych przy użyciu zaszumionego spektrogramu jako stan. Oceniamy skuteczność metody cGAN w zakresie percepcyjnej oceny jakości mowy (PESQ), krótkotrwałej obiektywnej zrozumiałości (STOI) i równego wskaźnika błędów (EER) weryfikacji mówcy (przykładowa aplikacja). Wyniki eksperymentalne pokazują, że metoda cGAN ogólnie przewyższa klasyczny algorytm SE z minimalnym błędem średniokwadratowym (STSA-MMSE) w zakresie amplitudy widmowej i jest porównywalna z podejściem SE opartym na głębokich sieciach neuronowych (DNN-SE). |
bb192e0208548831de1475b11859f2114121c662 | Metody zapobiegania dyskryminacji bezpośredniej i pośredniej | Dyskryminacja, obok prywatności, jest bardzo ważną kwestią przy rozważaniu prawnych i etycznych aspektów eksploracji danych. Jest bardziej niż oczywiste, że większość ludzi nie chce być dyskryminowana ze względu na płeć, religię, narodowość, wiek itd., zwłaszcza gdy te cechy są wykorzystywane do podejmowania decyzji na ich temat, takich jak danie im pracy, pożyczki, ubezpieczenia racji itp. Odkrycie takich potencjalnych błędów systematycznych i wyeliminowanie ich z danych szkoleniowych bez szkody dla ich użyteczności w podejmowaniu decyzji jest zatem wysoce pożądane. Z tego powodu do eksploracji danych wprowadzono techniki antydyskryminacyjne, w tym wykrywanie i zapobieganie dyskryminacji. Zapobieganie dyskryminacji polega na wywoływaniu wzorców, które nie prowadzą do dyskryminujących decyzji, nawet jeśli oryginalne zestawy danych treningowych są z natury stronnicze. W tym rozdziale, skupiając się na zapobieganiu dyskryminacji, przedstawiamy taksonomię klasyfikacji i badania metod zapobiegania dyskryminacji. Następnie przedstawiamy grupę wstępnie przetworzonych metod zapobiegania dyskryminacji i określamy różne cechy każdego podejścia oraz sposób, w jaki te podejścia radzą sobie z dyskryminacją bezpośrednią lub pośrednią. Przedstawiono również metryki stosowane do oceny wydajności tych aplikacji. Na koniec nasze badanie kończymy, wyliczając interesujące kierunki przyszłości w tym organie badawczym. |
1935e0986939ea6ef2afa01eeef94dbfea6fb6da | Markowitz ponownie: Modele średniej wariancji w analizie portfela finansowego | Analiza portfela średniej wariancji zapewniła pierwsze ilościowe ujęcie kompromisu między zyskiem a ryzykiem. Opisujemy szczegółowo współzależność między celem a ograniczeniami w wielu wariantach jednookresowych, w tym w modelach semiwariancyjnych. Szczególny nacisk kładzie się na unikanie karania za przekroczenie wydajności. Wyniki są następnie wykorzystywane jako elementy konstrukcyjne w opracowywaniu i analizie teoretycznej modeli wielookresowych opartych na drzewach scenariuszy. Kluczową właściwością jest możliwość usunięcia nadwyżek pieniędzy w przyszłych decyzjach, co daje przybliżoną minimalizację ryzyka w dół. |
1ea03bc28a14ade633d5a7fe9af71328834d45ab | Sfederowane uczenie się rozpoznawania słów kluczowych | Proponujemy praktyczne podejście oparte na sfederowanym uczeniu się, aby rozwiązywać problemy spoza domeny za pomocą stale działających wbudowanych modeli opartych na mowie, takich jak wykrywacze słów budzących. Przeprowadzamy szeroko zakrojone badanie empiryczne sfederowanego algorytmu uśredniania słowa budzącego „Hej Snips” w oparciu o zbiór danych z crowdsourcingu, który naśladuje federację użytkowników słowa budzącego. Empirycznie pokazujemy, że zastosowanie adaptacyjnej strategii uśredniania inspirowanej przez Adama w miejsce standardowego uśredniania modelu ważonego znacznie zmniejsza liczbę rund komunikacji wymaganych do osiągnięcia naszych docelowych wyników. Związane koszty komunikacji upstream na użytkownika szacuje się na 8 MB, co jest rozsądne w kontekście inteligentnych asystentów głosowych w domu. Ponadto zestaw danych wykorzystany do tych eksperymentów jest udostępniany na zasadach open source w celu wspierania dalszych przejrzystych badań nad zastosowaniem sfederowanego uczenia się do danych dotyczących mowy. |
55ca165fa6091973674b12ea8fa3f1a3a1e50a6d | Wyszukiwanie drzew w oparciu o próbki z abstrakcją stanów stałych i adaptacyjnych | Przeszukiwanie drzewa oparte na próbkach (SBTS) to podejście do rozwiązywania problemów decyzyjnych Markowa oparte na konstruowaniu drzewa wyszukiwania z wyprzedzeniem przy użyciu losowych próbek z generatywnego modelu MDP. Obejmuje algorytmy wyszukiwania drzewa Monte Carlo (MCTS), takie jak UCT, a także algorytmy, takie jak próbkowanie rzadkie. SBTS dobrze nadaje się do rozwiązywania MDP z dużymi przestrzeniami stanów ze względu na względną niewrażliwość algorytmów SBTS na wielkość przestrzeni stanów. Czynnikiem ograniczającym wydajność SBTS wydaje się być wykładnicza zależność złożoności próbki od głębokości drzewa poszukiwań. Liczba próbek potrzebnych do zbudowania drzewa poszukiwań to O((|A|B)), gdzie |A| to liczba dostępnych akcji, B to liczba możliwych losowych wyników podjęcia działania, a d to głębokość drzewa. Abstrakcji stanów można użyć do zmniejszenia B poprzez agregację losowych wyników w stany abstrakcyjne. Ostatnie prace wykazały, że wyszukiwanie drzew abstrakcyjnych często działa znacznie lepiej niż wyszukiwanie drzew prowadzone w przestrzeni stanów naziemnych. W artykule przedstawiono teoretyczną i empiryczną ocenę przeszukiwania drzew z abstrakcją stanów stałych i adaptacyjnych. Wyprowadzamy ograniczenie żalu z powodu abstrakcji stanu w przeszukiwaniu drzewa, które rozkłada błąd abstrakcji na trzy składniki wynikające z właściwości abstrakcji i algorytmu wyszukiwania. Opisujemy wersje popularnych algorytmów SBTS, które używają stałych abstrakcji stanów, oraz wprowadzamy algorytm Progressive Abstraction Refinement in Sparse Sampling (PARSS), który dostosowuje swoją abstrakcję podczas wyszukiwania. Oceniamy PARSS, a także rzadkie próbkowanie ze stałymi abstrakcjami w 12 problemach eksperymentalnych i stwierdzamy, że PARSS przewyższa wyszukiwanie ze stałą abstrakcją, a wyszukiwanie z nawet bardzo niedokładnymi stałymi abstrakcjami przewyższa wyszukiwanie bez abstrakcji. Wyniki te ustanawiają stopniowe udoskonalanie abstrakcji jako obiecującą podstawę dla nowych algorytmów wyszukiwania drzew, a my proponujemy kierunki przyszłych prac w ramach stopniowego udoskonalania. |
2ae40898406df0a3732acc54f147c1d377f54e2a | Zapytanie przez Komitet | Proponujemy algorytm zwany zapytaniem przez komisję, w którym komisja studentów jest szkolona na tym samym zbiorze danych. Kolejne zapytanie jest wybierane zgodnie z zasadą maksymalnej niezgody. Algorytm jest badany dla dwóch modeli zabawek: gry high-low oraz uczenia się perceptronu innego perceptronu. Gdy liczba zapytań zbliża się do nieskończoności, algorytm komitetu zapewnia asymptotycznie skończony przyrost informacji. Prowadzi to do błędu uogólnienia, który maleje wykładniczo wraz z liczbą przykładów. W przeciwieństwie do uczenia się z losowo wybranych danych wejściowych, dla których wzmocnienie informacji zbliża się do zera, a błąd uogólnienia zmniejsza się przy stosunkowo powolnym odwrotnym prawie potęgowym. Sugerujemy, że asymptotycznie skończony przyrost informacji może być ważną cechą dobrych algorytmów zapytań. |
49e85869fa2cbb31e2fd761951d0cdfa741d95f3 | Adaptacyjne uczenie się za pomocą kolektorów | Algorytmy wielowymiarowego uczenia się starają się znaleźć niskowymiarową parametryzację danych wielowymiarowych. W dużym stopniu opierają się na pojęciu tego, co można uznać za lokalne, jak dokładnie rozmaitość może być aproksymowana lokalnie, a także, co nie mniej ważne, jak lokalne struktury można łatać razem, aby uzyskać globalną parametryzację. W tym artykule opracowujemy algorytmy, które rozwiązują dwa kluczowe problemy w różnorodnym uczeniu się: 1) adaptacyjny wybór wielkości lokalnego sąsiedztwa podczas narzucania struktury łączności na dany zbiór punktów danych o dużej wielkości oraz 2) adaptacyjne zmniejszenie błędu systematycznego w lokalne niskowymiarowe osadzenie poprzez uwzględnienie zmian w krzywiźnie kolektora, jak również jego wzajemną zależność z gęstością próbkowania zbioru danych. Demonstrujemy skuteczność naszych metod w poprawianiu wydajności różnorodnych algorytmów uczenia się przy użyciu zarówno syntetycznych, jak i rzeczywistych zbiorów danych. |
bf07d60ba6d6c6b8cabab72dfce06f203782df8f | Ekstrakcja cech w oparciu o uczenie wielorakie w celu klasyfikacji danych hiperspektralnych: przegląd postępów w uczeniu się z rozmaitościami | Postępy w wykrywaniu hiperspektralnym zapewniają nowe możliwości charakteryzowania sygnatur widmowych w szerokim zakresie systemów fizycznych i biologicznych, inspirując jednocześnie nowe metody wydobywania informacji z tych danych. Dane HSI często opierają się na nielicznych, nieliniowych rozmaitościach, których struktury geometryczne i topologiczne można wykorzystać za pomocą technik wielorakiego uczenia się. W tym artykule skupiliśmy się na wykazaniu możliwości, jakie daje wielorakie uczenie się klasyfikacji danych z teledetekcji. Jednak ograniczenia i możliwości pozostają zarówno w zakresie badań, jak i zastosowań. Chociaż wykazano, że metody te łagodzą wpływ efektów fizycznych, które wpływają na energię elektromagnetyczną przechodzącą przez atmosferę i odbijającą się od celu, nieliniowości nie zawsze są widoczne w danych, szczególnie w niższych rozdzielczościach przestrzennych, więc użytkownicy powinni zawsze oceniać wrodzoną nieliniowość w dane. Różnorodne uczenie się opiera się na danych i jako takie wyniki są silnie uzależnione od cech danych, a jedna metoda nie zapewnia konsekwentnie najlepszych wyników. Nieliniowe metody wielorakiego uczenia się wymagają dostrajania parametrów, chociaż wyniki eksperymentalne są zazwyczaj stabilne w zakresie wartości i mają wyższy narzut obliczeniowy niż metody liniowe, co jest szczególnie istotne w przypadku zestawów danych teledetekcji na dużą skalę. Istnieją również możliwości rozwoju różnorodnego uczenia się w zakresie analizy danych hiperspektralnych i wieloźródłowych pochodzących z teledetekcji. Zakłada się, że rozmaitości są z natury gładkie, założenie, że niektóre zbiory danych mogą naruszać, a dane często zawierają klasy, których widma są wyraźnie różne, co skutkuje wieloma rozmaitościami lub podrozmaitościami, których nie można łatwo zintegrować z jedną reprezentacją rozmaitości. Opracowanie odpowiednich charakterystyk, które wykorzystują unikalne cechy tych podrozmaitości dla konkretnego zbioru danych, jest otwartym problemem badawczym, dla którego wydają się przysługiwać hierarchiczne struktury rozmaitości. Do tej pory większość prac nad różnorodnym uczeniem skupiała się na wyodrębnianiu cech z pojedynczych obrazów, zakładając stacjonarność na całej scenie. Potrzebne są również badania nad wspólnym wykorzystaniem globalnych i lokalnych metod osadzania w dynamicznych, wieloczasowych środowiskach oraz integracji z częściowo nadzorowanym i aktywnym uczeniem się. |
01996726f44253807537cec68393f1fce6a9cafa | Stochastyczne osadzanie sąsiadów | Opisujemy probabilistyczne podejście do zadania umieszczania obiektów, opisanych przez wektory wysokowymiarowe lub przez odmienności parami, w przestrzeni niskowymiarowej, z zachowaniem tożsamości sąsiadów. Gauss jest wyśrodkowany na każdym obiekcie w przestrzeni wielowymiarowej, a gęstości pod tym gaussem (lub podanymi różnicami) są używane do zdefiniowania rozkładu prawdopodobieństwa na wszystkich potencjalnych sąsiadach obiektu. Celem osadzania jest jak najlepsze przybliżenie tego rozkładu, gdy ta sama operacja jest wykonywana na niskowymiarowych „obrazach” obiektów. Funkcja kosztu naturalnego to suma rozbieżności Kullbacka-Leiblera, jedna na obiekt, co prowadzi do prostego gradientu do dostosowania pozycji obrazów niskowymiarowych. W przeciwieństwie do innych metod redukcji wymiarów, ta probabilistyczna konstrukcja ułatwia reprezentację każdego obiektu za pomocą mieszanki szeroko oddzielonych obrazów niskowymiarowych. Dzięki temu niejednoznaczne obiekty, takie jak wektor zliczania dokumentów dla słowa „bank”, mogą mieć wersje zbliżone do obrazów „rzeki” i „finansów”, bez zmuszania obrazów konceptów outdoorowych do umieszczania ich w pobliżu konceptów korporacyjnych. |
0e1431fa42d76c44911b07078610d4b9254bd4ce | Analiza składowych nieliniowych jako problem z wartością własną jądra | Zaproponowano nową metodę wykonywania nieliniowej postaci analizy składowych głównych. Korzystając z funkcji jądra operatora całkowego, można wydajnie obliczyć główne składowe w wielowymiarowych przestrzeniach cech, związanych z przestrzenią wejściową za pomocą jakiejś nieliniowej mapy, na przykład przestrzeni wszystkich możliwych produktów pięciopikselowych w 16 16 obrazach. Podajemy wyprowadzenie metody i przedstawiamy wyniki eksperymentalne dotyczące ekstrakcji cech wielomianowych do rozpoznawania wzorów. |
40cfac582cafeadb0e09e5f020e2febf5cbd4986 | Wykorzystanie topologii grafów i kontekstu semantycznego na potrzeby nadzoru nad bezpieczeństwem farmakoterapii za pośrednictwem strumieni Twittera | Działania niepożądane leków (ADE) stanowią jedną z głównych przyczyn zgonów poterapeutycznych, a ich identyfikacja stanowi ważne wyzwanie współczesnej medycyny precyzyjnej. Niestety, początek i skutki ADE są często niedoceniane, co komplikuje terminową interwencję. Przy ponad 500 milionach postów dziennie Twitter jest powszechnie używaną platformą mediów społecznościowych. Powszechność codziennej wymiany danych osobowych na Twitterze sprawia, że jest to obiecujący cel eksploracji danych w celu identyfikacji i interwencji ADE. Kluczowe dla tego problemu są trzy wyzwania techniczne: (1) identyfikacja najistotniejszych medycznych słów kluczowych w (hałaśliwych) tweetach, (2) mapowanie relacji lek-skutek oraz (3) klasyfikacja takich relacji jako niekorzystnych lub niepożądanych. Do modelowania zależności między lekami a skutkami ubocznymi, przedstawiając leki i skutki uboczne jako wierzchołki, używamy dwuczęściowej reprezentacji graficznej zwanej grafem efektów leku (DEG). Konstruujemy poszczególne DEG na dwóch źródłach danych. Pierwszy DEG jest skonstruowany na podstawie relacji lek-skutek znalezionych w ulotkach FDA, zapisanych w bazie danych SIDER. Drugi DEG jest konstruowany poprzez eksplorację historii użytkowników Twittera. Używamy ekstrakcji informacji opartej na słowniku, aby zidentyfikować istotne medycznie pojęcia w tweetach. Leki, wraz ze współwystępującymi objawami, wiążą się z krawędziami ważonymi odległością czasową i częstotliwością. Wreszcie, informacje z SIDER DEG są integrowane z Twitter DEG, a krawędzie są klasyfikowane jako niekorzystne lub niepowodujące przy użyciu nadzorowanego uczenia maszynowego. W zadaniu klasyfikacyjnym badamy zarówno cechy teoretyczne, jak i semantyczne. Zaproponowane podejście umożliwia identyfikację działań niepożądanych leków z dużą dokładnością z dokładnością przekraczającą 85% i F1 przekraczającą 81%. W porównaniu z wiodącymi metodami w stanie techniki, które wykorzystują samą niewzbogaconą analizę graficzną, nasza metoda prowadzi do poprawy w zakresie od 5 do 8% w zakresie wyżej wymienionych miar. Dodatkowo stosujemy naszą metodę, aby odkryć kilka ADE, które choć są obecne w literaturze medycznej i strumieniach na Twitterze, nie są reprezentowane w bazach danych SIDER. Prezentujemy model integracji DEG jako potężny formalizm do analizy zależności lek-skutek, który jest wystarczająco ogólny, aby pomieścić różne źródła danych, ale wystarczająco rygorystyczny, aby zapewnić silny mechanizm identyfikacji ADE. |
292eee24017356768f1f50b72701ea636dba7982 | MODELE IMPLICIT KSZTAŁTÓW DO WYKRYWANIA OBIEKTÓW W CHMURACH PUNKTÓW 3D | Przedstawiamy metodę automatycznej lokalizacji i rozpoznawania obiektów w chmurach punktów 3D reprezentujących miejskie sceny plenerowe. Metoda opiera się na niejawnym modelu kształtu (ISM), który rozpoznaje obiekty poprzez głosowanie na ich położenie w środku. Wymaga tylko kilku przykładów szkoleniowych na zajęcia, co jest ważną właściwością do praktycznego zastosowania. Wprowadzamy również i oceniamy ulepszoną wersję deskryptora obrazu spinowego, bardziej odpornego na zmiany gęstości punktów i niepewności w estymacji kierunku normalnego. Nasze eksperymenty ujawniają znaczący wpływ tych modyfikacji na wydajność rozpoznawania. Porównujemy nasze wyniki z najnowocześniejszą metodą i uzyskujemy znaczną poprawę zarówno precyzji, jak i przywoływania zestawu danych Ohio, składającego się z połączonych skanów LiDAR lotniczych i naziemnych łącznie 150 000 m obszaru miejskiego. |
ffd7ac9b4fff641d461091d5237321f83bae5216 | Wielozadaniowe uczenie się nadzoru ruchu morskiego na podstawie strumieni danych AIS | W świecie globalnego handlu bezpieczeństwo morskie, ochrona i wydajność to kluczowe kwestie. Proponujemy wielozadaniową platformę głębokiego uczenia się do monitorowania statków za pomocą strumieni danych systemu automatycznej identyfikacji (AIS). Łączymy powtarzające się sieci neuronowe z modelowaniem zmiennych ukrytych i osadzaniem komunikatów AIS w nowej przestrzeni reprezentacji, aby wspólnie rozwiązać kluczowe problemy, które należy rozwiązać przy rozważaniu strumieni danych AIS: ogromna ilość danych przesyłanych strumieniowo, zaszumione dane i nieregularne próbkowanie czasu. Demonstrujemy znaczenie proponowanych ram głębokiego uczenia się na rzeczywistych zestawach danych AIS w przypadku trzech zadań, a mianowicie rekonstrukcji trajektorii, wykrywania anomalii i identyfikacji typu naczynia. |
6385cd92746386c82a69ffdc3bc0a9da9f64f721 | Skala wyniku dysfagii i nasilenia | Skala wyników i nasilenia dysfagii (DOSS) to prosta, łatwa w użyciu, 7-punktowa skala opracowana w celu systematycznego oceniania funkcjonalnego nasilenia dysfagii na podstawie obiektywnej oceny i formułowania zaleceń dotyczących poziomu diety, poziomu niezależności i rodzaju żywienia . Wiarygodność wewnątrz- i międzysądową DOSS została ustalona przez czterech klinicystów na 135 kolejnych pacjentach, którzy przeszli zmodyfikowaną procedurę połykania baru w dużym szpitalu klinicznym. Pacjentom przypisano poziom ciężkości, poziom niezależności i poziom odżywienia w oparciu o trzy obszary najbardziej związane z ostatecznymi zaleceniami: transfer bolusowy w fazie doustnej, zatrzymanie w fazie gardłowej i ochrona dróg oddechowych. Wyniki wskazują na wysoką zgodność interraterów (90%) i intrarater (93%) z tą skalą. Sugeruje się zastosowanie DOSS w dokumentowaniu funkcjonalnych wyników połykania i stanu diety w oparciu o obiektywną ocenę. |
1d18fba47004a4cf2643c41ca82f6b04904bb134 | Super rozdzielczość mapy głębokości z uwzględnieniem jakości syntezy widoku | Dokładne i wysokiej jakości mapy głębi są wymagane w wielu aplikacjach 3D, takich jak renderowanie w wielu widokach, rekonstrukcja 3D i 3DTV. Jednak rozdzielczość przechwyconego obrazu głębi jest znacznie niższa niż odpowiadającego mu obrazu kolorowego, co wpływa na wydajność aplikacji. W tym artykule proponujemy nowatorską metodę super-rozdzielczości mapy głębi (SR) z uwzględnieniem jakości syntezy widoku. Proponowane podejście obejmuje głównie dwa wkłady techniczne. Po pierwsze, ponieważ przechwycona mapa głębi o niskiej rozdzielczości (LR) może być uszkodzona przez hałas i okluzję, proponujemy opartą na wiarygodności strategię łączenia map głębokości z wieloma widokami, która uwzględnia jakość syntezy widoku i korelację wywiadu, w celu udoskonalenia mapy głębokości LR . Po drugie, proponujemy metodę upsamplingu trójstronnej mapy głębi opartą na jakości syntezy widoku, która uwzględnia gładkość głębi, podobieństwo tekstur i jakość syntezy widoku w filtrze upsamplingu. Wyniki eksperymentalne pokazują, że proponowana metoda przewyższa najnowocześniejsze metody SR głębokości zarówno w przypadku superrozdzielczych map głębokości, jak i zsyntetyzowanych widoków. Ponadto proponowana metoda jest odporna na hałas i daje obiecujące wyniki w warunkach zepsucia hałasu. |
922b5eaa5ca03b12d9842b7b84e0e420ccd2feee | Nowe podejście do problemów z filtrowaniem liniowym i prognozowaniem | WAŻNA klasa problemów teoretycznych i praktycznych w komunikacji i kontroli ma charakter statystyczny. Takimi problemami są: (i) przewidywanie losowych sygnałów; (ii) oddzielenie losowych sygnałów od losowego szumu; (iii) wykrywanie sygnałów o znanej postaci (impulsy, sinusoidy) w obecności przypadkowego szumu. W swojej pionierskiej pracy Wiener [1]3 wykazał, że problemy (i) i (ii) prowadzą do tak zwanego równania całkowego Wienera-Hopfa; podał również metodę (faktoryzację widmową) rozwiązania tego równania całkowego w praktycznie ważnym szczególnym przypadku statystyki stacjonarnej i widm wymiernych. Wiele rozszerzeń i uogólnień podążało za podstawową pracą Wienera. Zadeh i Ragazzini rozwiązali przypadek pamięci skończonej [2]. Równocześnie i niezależnie od Bodego i Shannona [3] podali również uproszczoną metodę [2] rozwiązania. Booton omówił niestacjonarne równanie Wienera-Hopfa [4]. Wyniki te znajdują się obecnie w standardowych tekstach [5-6]. Nieco inne podejście do tych głównych linii przedstawił niedawno Darlington [7]. Rozszerzenia do próbkowanych sygnałów, patrz np. Franklin [8], Lees [9]. Inne podejście oparte na funkcjach własnych równania WienerHopfa (które dotyczy również problemów niestacjonarnych, podczas gdy poprzednie metody w ogóle nie), zostało zapoczątkowane przez Davisa [10] i zastosowane przez wielu innych, np. Shinbrot [11], Blum [12], Pugaczow [13], Solodovnikov [14]. We wszystkich tych pracach celem jest uzyskanie specyfikacji liniowego układu dynamicznego (filtr Wienera), który realizuje predykcję, separację lub detekcję losowego sygnału.4 ——— 1 Badania te były częściowo wspierane przez U.S. Air Siłowe Biuro Badań Naukowych na podstawie umowy AF 49 (638)-382. 2 7212 Bellona Ave. 3 Liczby w nawiasach oznaczają Odnośniki na końcu artykułu. 4 Oczywiście, generalnie zadania te mogą być lepiej wykonane przez filtry nieliniowe. Obecnie jednak niewiele lub nic nie wiadomo o tym, jak uzyskać (zarówno teoretycznie, jak i praktycznie) te nieliniowe filtry. Wniesiony przez Pion Instrumentów i Regulatorów i przedstawiony na Konferencji Instrumentów i Regulatorów, 29 marca – 12 kwietnia 1959, AMERICAN SOCIETY OF MECHANIC ENGINEERS. UWAGA: Wypowiedzi i opinie wygłaszane w artykułach należy rozumieć jako indywidualne wypowiedzi ich autorów, a nie Towarzystwa. Rękopis otrzymany w siedzibie ASME, 24 lutego 1959. Papier nr 59-IRD-11. Nowe podejście do problemów z filtrowaniem liniowym i prognozowaniem |
Part of BEIR-PL: Zero Shot Information Retrieval Benchmark for the Polish Language.
Link to arxiv: https://arxiv.org/pdf/2305.19840.pdf
Contact: konrad.wojtasik@pwr.edu.pl