Aby wyeliminować tzw. efekt przeuczenia sieci neuronowej (uczenie nadzorowane), należy uznać za optymalny (ostateczny) zbiór wartości wag, otrzymany w momencie:
zidentyfikowania minimum lokalnego funkcji błędu uczącego
zakończenia działania algorytmu uczącego
minimum błędu dla ciągu uczącego
minimum błędu dla ciągu walidacyjnego
minimum błędu dla ciągu walidacyjnego
Metoda wzmacniania gradientowego (gradient boosting) służy do:
zwiększania kontrastu pomiędzy blisko leżącymi klastrami
budowania mocnego modelu złożonego z wielu słabszych modeli
przyspieszania procesu uczenia głębokich sieci neuronowych
generowania dodatkowych sztucznych próbek w zbiorach uczących
budowania mocnego modelu złożonego z wielu słabszych modeli
Hiperparametrami modelu nazywa się parametry, które:
opisują wagi połączeń pomiędzy całymi warstwami sieci
sterują przebiegiem procesu uczenia modelu
są dopasowywane podczas uczenia do danych wejściowych
mogą zmieniać się w bardzo szerokim zakresie wartości
sterują przebiegiem procesu uczenia modelu
Istotną WADĄ sieci neuronowych jako modeli eksploracji danych jest:
nieparametryczność
brak zdolności wyjaśniania (uzasadniania) wygenerowanych odpowiedzi
brak zdolności do modelowania zjawisk nieliniowych
bardzo długi czas reakcji (odpowiedzi) nauczonej sieci
brak zdolności wyjaśniania (uzasadniania) wygenerowanych odpowiedzi
Końcowe trzy etapy eksploracji danych w metodologii CRISP-DM to KOLEJNO:
Modelowanie - Ewaluacja - Wdrożenie
Wdrożenie - Ewaluacja - Modelowanie
Ewaluacja - Modelowanie - Wdrożenie
Modelowanie - Wdrożenie - Ewaluacja
Modelowanie - Ewaluacja - Wdrożenie
Iloczyn skalarny wektora cech z pewnym wektorem wag można traktować jako formę:
obrotu w przestrzeni cech
ekstrakcji cech
regresji liniowej
redukcji wymiarowości
regresji liniowej
W pewnym problemie eksploracji danych zmienna wyjściowa (zależna) przyjmuje 3 możliwe wartości: "biały","czerwony", "niebieski". Dany problem zaliczamy do zadań:
klasyfikacji wzorcowej
regresyjnych (szacowanie, predykcja)
klasyfikacji bezwzorcowej (grupowania)
poszukiwania reguł asocjacyjnych
klasyfikacji wzorcowej
Argumentem funkcji aktywacji neuronu typu RBF jest
iloczyn skalarny wektorów: wejściowego x i wag w
suma sygnałów x1 + x2 + ... wektora wejściowego x
ważona liczba wejść danego neuronu
odległość wektorów: wejściowego x i wag w
odległość wektorów: wejściowego x i wag w
Algorytm aglomeracyjny rozpoczyna proces analizy od stanu, w którym:
każdy obiekt tworzy osobne skupienie
obiekty są losowo przydzielone do skupień, a liczba skupień jest z góry określana
wszystkie obiekty tworzą jedno skupenie
obiekty podzielone są wstępnie przy użyciu innej metody grupowania
każdy obiekt tworzy osobne skupienie
Technika k-krotnej walidacji krzyżowej służy do:
wyeliminowania wzajemnych zależności między zmiennymi
ustalenia optymalnego momentu przerwania uczenia modelu
klasteryzacji zbioru na k maksymalnie odległych skupień
uniknięcia tendencyjności w ocenie jakości modelu
uniknięcia tendencyjności w ocenie jakości modelu
Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych:
sieć neuronowa typu PERCEPTRON WIELOWARSTWOWY
algorytm k-średnich
sieć neuronowa typu RBF
liniowa regresja wieloraka
algorytm k-średnich
Algorytmy genetyczne (ewolucyjne) służą generalnie do realizacji zadań:
poszukiwania reguł asocjacyjnych
eksploracji danych zapisanych w chromosomach roślin i zwierząt
regresji
optymalizacji
optymalizacji
Pojęcie tensora występujące często w dziedzinie uczenia głębokiego oznacza:
wyspecjalizowany rodzaj neuronów przetwarzających obraz
uogólnienie pojęcia macierzy na wiele wymiarów
warstwę wejściową rozprowadzającą sygnały do sieci
wektor wskazujący kierunek najszybszego spadku błędu sieci
uogólnienie pojęcia macierzy na wiele wymiarów
Aglomeracyjne metody klasteryzacji polegają na
krokowym dodawaniu linii dzielących klastry w optymalnym miejscu
iteracyjnym dzieleniu klastrów na najbardziej odległe połowy
przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
stopniowym ograniczaniu klastrów poprzez usuwanie outlierów
przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
Argumentem funkcji aktywacji neuronu typu MLP (w sieci perceptronowej) jest :
odległość wektorów: wejściowego x i wag w
ważona liczba wejść danego neuronu
iloczyn skalarny wektorów: wejściowego x i wag w
suma sygnałów x1 + x2 + ... wektora wejściowego x
ważona liczba wejść danego neuronu
Która z wymienionych metod NIE jest stosowana w procesie analizy skupień (grupowania)
sieć neuronowa Kohonena (Typu SOM)
algorytm k-najbliższych sąsiadów
algorytm k-średnich
metody aglomeracyjne (generujące dendrogram)
algorytm k-najbliższych sąsiadów
Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych