ponownego przeprowadzenia podziału w miejscu cięcia
eliminacji zmiennych nieistotnych
uniknięcia przeuczenia i skomplikowania modelu
Przyjęcie metryki L1 (metryki Manhattan) sprawia, że okręgi przyjmują kształt:
elips
trójkątów
rombów
kardioid
rombów
Algorytmy genetyczne (ewolucyjne) służa generalnie do realizacji zadań:
optymalizacji
eksploracji danych zapisanych w chromosomach roślin i zwierząt
poszukiwania reguł asocjacyjnych
regresji
optymalizacji
Rolą pojedynczego neuronu w warstwie perceptronu użytego do klasyfikacji jest:
podział przestrzeni wejść na dwie półprzestrzenie
rozpoznawanie jednego przypadku w zbiorze
klasyfikacja pojedynczej cechy wejściowej
ozpoznawanie jednej ze znanych klas w zbiorze
podział przestrzeni wejść na dwie półprzestrzenie
Technika k-krotnej walidacji krzyżowej służy do:
klasteryzacji zbioru na k maksymalnie odległych skupień
ustalenia optymalnego momentu przerwania uczenia modelu
uniknięcia tendencyjności w ocenie jakości modelu
wyeliminowania wzajemnych zależności między zmiennymi
uniknięcia tendencyjności w ocenie jakości modelu
Problem klasyfikacyjny polega na:
rozróżnianiu obserwowanych cech na wejściowe i wyjściowe
ustaleniu optymalnej liczby klas, do których należą obserwacje
prognozowaniu kategorii obserwacji na podstawie jej cech
poszukiwaniu przypadków najbardziej reprezentacyjnych dla klas
prognozowaniu kategorii obserwacji na podstawie jej cech
Klasyczny (perceptronowy) model neuronu posiada dwa wejścia o wagach w1=1, w2=2, na które podano odpowiednio sygnały x1=−1, x2=+1. Funkcja aktywacji jest funkcją liniową postaci y=2x. Sygnał wyjściowy neuronu wynosi:
2
1
0
-1
2
Oryginalna zmienna x przyjmuje trzy wartości: -2, 1, 4. Po przeprowadzeniu normalizacji tej zmiennej wg metody min-max do przedziału [0, 1], oryginalnej wartości 1 odpowiada znormalizowana wartość:
1
0,75
0,25
0,5
0,5
.Argumentem funkcji aktywacji neuronu typu RBF jest
ważona liczba wejść danego neuronu
iloczyn skalarny wektorów: wejściowego x i wag w
suma sygnałów x1 + x2 + ... wektora wejściowego x
odległość wektorów: wejściowego x i wag w
odległość wektorów: wejściowego x i wag w
Przeuczenie modelu (overfitting) można rozpoznać po tym, że
w procesie uczenia zaczyna rosnąć błąd dla próby testowej
szybkość uczenia się modelu zaczyna spadać w kolejnych iteracjach
liczba błędnie zaklasyfikowanych przypadków spada do 0
trafność predykcji modelu przekracza poziom 99.73%
w procesie uczenia zaczyna rosnąć błąd dla próby testowej
Na etapie wstępnej eksploracyjnej analizy danych najmniej przydatne jest
zliczenie wystąpień wartości zmiennych nominalnych
wygenerowanie histogramów zmiennych ciągłych
użycie metod nienadzorowanej klasteryzacji
wizualne porównanie współzależności par zmiennych
wygenerowanie histogramów zmiennych ciągłych
.Iloczyn skalarny wektora cech z pewnym wektorem wag można traktować jako formę
redukcji wymiarowości
obrotu w przestrzeni cech
ekstrakcji cech
regresji liniowej
regresji liniowej
Metoda wzmacniania gradientowego (gradient boosting) służy do
generowania dodatkowych sztucznych próbek w zbiorach uczących
budowania mocnego modelu złożonego z wielu słabszych modeli
zwiększania kontrastu pomiędzy blisko leżącymi klastrami
przyspieszania procesu uczenia głębokich sieci neuronowych
budowania mocnego modelu złożonego z wielu słabszych modeli
Problem klasteryzacyjny polega na
algorytmu wstecznej propagacji błędów
predykcji przynależności danej obserwacji do różnych klas
poszukiwaniu granic oddzielających obserwacje różnych klas
identyfikacji skupisk zgodnie z pewnym kryterium podobieństwa
grupowaniu cech obserwacji w skorelowane ze sobą zespoły
identyfikacji skupisk zgodnie z pewnym kryterium podobieństwa
Wskaż drugi algorytm (metodę), który służy do rozwiązywania tego samego typu problemów eksploracji danych, co algorytm k-najbliższych sąsiadów
algorytm k-średnich
algorytm CART (drzewa klasyfikacyjne i regresyjne)
algorytm Kohonena (sieć neuronowa typu SOM)
algorytm PCA (analiza głównych składowych)
algorytm CART (drzewa klasyfikacyjne i regresyjne)
Poszukiwanie zbiorów częstych jest pierwszym etapem
algorytmu A priori
algorytmu k-najbliższych sąsiadów
algorytmu wstecznej propagacji błędów
algorytmu k-średnich
algorytmu A priori
Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych
sieć neuronowa typu RBF
liniowa regresja wieloraka
algorytm k-średnich
sieć neuronowa typu PERCEPTRON WIELOWARSTWOWY
algorytm k-średnich
Aglomeracyjne metody klasteryzacji polegają na
przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
krokowym dodawaniu linii dzielących klastry w optymalnym miejscu
iteracyjnym dzieleniu klastrów na najbardziej odległe połowy
stopniowym ograniczaniu klastrów poprzez usuwanie outlierów
przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
Sieć neuronowa Kohonena (SOM) generalnie jest przeznaczona do realizacji
analizy szeregów czasowych
klasyfikacji wzorcowej
klasyfikacji bezwzorcowej (grupowania)
prognozowania lub szacowania wartości
klasyfikacji bezwzorcowej (grupowania)
Końcowe trzy etapy eksploracji danych w metodologii CRISP-DM to KOLEJNO: