Aby wyeliminować tzw. efekt przeuczenia sieci neuronowej (uczenie nadzorowane), należy uznać za optymalny (ostateczny) zbiór wartości wag, otrzymany w momencie:
zidentyfikowania minimum lokalnego funkcji błędu uczącego
minimum błędu dla ciągu walidacyjnego
minimum błędu dla ciągu uczącego
zakończenia działania algorytmu uczącego
minimum błędu dla ciągu walidacyjnego
Metoda wzmacniania gradientowego (gradient boosting) służy do:
zwiększania kontrastu pomiędzy blisko leżącymi klastrami
przyspieszania procesu uczenia głębokich sieci neuronowych
budowania mocnego modelu złożonego z wielu słabszych modeli
generowania dodatkowych sztucznych próbek w zbiorach uczących
budowania mocnego modelu złożonego z wielu słabszych modeli
Hiperparametrami modelu nazywa się parametry, które:
mogą zmieniać się w bardzo szerokim zakresie wartości
opisują wagi połączeń pomiędzy całymi warstwami sieci
sterują przebiegiem procesu uczenia modelu
są dopasowywane podczas uczenia do danych wejściowych
sterują przebiegiem procesu uczenia modelu
Istotną WADĄ sieci neuronowych jako modeli eksploracji danych jest:
bardzo długi czas reakcji (odpowiedzi) nauczonej sieci
brak zdolności wyjaśniania (uzasadniania) wygenerowanych odpowiedzi
brak zdolności do modelowania zjawisk nieliniowych
nieparametryczność
brak zdolności wyjaśniania (uzasadniania) wygenerowanych odpowiedzi
Końcowe trzy etapy eksploracji danych w metodologii CRISP-DM to KOLEJNO:
Ewaluacja - Modelowanie - Wdrożenie
Modelowanie - Wdrożenie - Ewaluacja
Wdrożenie - Ewaluacja - Modelowanie
Modelowanie - Ewaluacja - Wdrożenie
Modelowanie - Ewaluacja - Wdrożenie
Iloczyn skalarny wektora cech z pewnym wektorem wag można traktować jako formę:
regresji liniowej
redukcji wymiarowości
obrotu w przestrzeni cech
ekstrakcji cech
regresji liniowej
W pewnym problemie eksploracji danych zmienna wyjściowa (zależna) przyjmuje 3 możliwe wartości: "biały","czerwony", "niebieski". Dany problem zaliczamy do zadań:
klasyfikacji bezwzorcowej (grupowania)
regresyjnych (szacowanie, predykcja)
poszukiwania reguł asocjacyjnych
klasyfikacji wzorcowej
klasyfikacji wzorcowej
Argumentem funkcji aktywacji neuronu typu RBF jest
odległość wektorów: wejściowego x i wag w
iloczyn skalarny wektorów: wejściowego x i wag w
suma sygnałów x1 + x2 + ... wektora wejściowego x
ważona liczba wejść danego neuronu
odległość wektorów: wejściowego x i wag w
Algorytm aglomeracyjny rozpoczyna proces analizy od stanu, w którym:
każdy obiekt tworzy osobne skupienie
wszystkie obiekty tworzą jedno skupenie
obiekty są losowo przydzielone do skupień, a liczba skupień jest z góry określana
obiekty podzielone są wstępnie przy użyciu innej metody grupowania
każdy obiekt tworzy osobne skupienie
Technika k-krotnej walidacji krzyżowej służy do:
uniknięcia tendencyjności w ocenie jakości modelu
klasteryzacji zbioru na k maksymalnie odległych skupień
wyeliminowania wzajemnych zależności między zmiennymi
ustalenia optymalnego momentu przerwania uczenia modelu
uniknięcia tendencyjności w ocenie jakości modelu
Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych:
sieć neuronowa typu RBF
sieć neuronowa typu PERCEPTRON WIELOWARSTWOWY
algorytm k-średnich
liniowa regresja wieloraka
algorytm k-średnich
Algorytmy genetyczne (ewolucyjne) służą generalnie do realizacji zadań:
eksploracji danych zapisanych w chromosomach roślin i zwierząt
regresji
optymalizacji
poszukiwania reguł asocjacyjnych
optymalizacji
Pojęcie tensora występujące często w dziedzinie uczenia głębokiego oznacza:
warstwę wejściową rozprowadzającą sygnały do sieci
uogólnienie pojęcia macierzy na wiele wymiarów
wyspecjalizowany rodzaj neuronów przetwarzających obraz
wektor wskazujący kierunek najszybszego spadku błędu sieci
uogólnienie pojęcia macierzy na wiele wymiarów
Aglomeracyjne metody klasteryzacji polegają na
krokowym dodawaniu linii dzielących klastry w optymalnym miejscu
stopniowym ograniczaniu klastrów poprzez usuwanie outlierów
przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
iteracyjnym dzieleniu klastrów na najbardziej odległe połowy
przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
Argumentem funkcji aktywacji neuronu typu MLP (w sieci perceptronowej) jest :
iloczyn skalarny wektorów: wejściowego x i wag w
ważona liczba wejść danego neuronu
suma sygnałów x1 + x2 + ... wektora wejściowego x
odległość wektorów: wejściowego x i wag w
ważona liczba wejść danego neuronu
Która z wymienionych metod NIE jest stosowana w procesie analizy skupień (grupowania)
sieć neuronowa Kohonena (Typu SOM)
algorytm k-średnich
metody aglomeracyjne (generujące dendrogram)
algorytm k-najbliższych sąsiadów
algorytm k-najbliższych sąsiadów
Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych