ponownego przeprowadzenia podziału w miejscu cięcia
uniknięcia przeuczenia i skomplikowania modelu
Przyjęcie metryki L1 (metryki Manhattan) sprawia, że okręgi przyjmują kształt:
elips
rombów
kardioid
trójkątów
rombów
Algorytmy genetyczne (ewolucyjne) służa generalnie do realizacji zadań:
eksploracji danych zapisanych w chromosomach roślin i zwierząt
optymalizacji
poszukiwania reguł asocjacyjnych
regresji
optymalizacji
Rolą pojedynczego neuronu w warstwie perceptronu użytego do klasyfikacji jest:
podział przestrzeni wejść na dwie półprzestrzenie
rozpoznawanie jednego przypadku w zbiorze
ozpoznawanie jednej ze znanych klas w zbiorze
klasyfikacja pojedynczej cechy wejściowej
podział przestrzeni wejść na dwie półprzestrzenie
Technika k-krotnej walidacji krzyżowej służy do:
uniknięcia tendencyjności w ocenie jakości modelu
ustalenia optymalnego momentu przerwania uczenia modelu
wyeliminowania wzajemnych zależności między zmiennymi
klasteryzacji zbioru na k maksymalnie odległych skupień
uniknięcia tendencyjności w ocenie jakości modelu
Problem klasyfikacyjny polega na:
ustaleniu optymalnej liczby klas, do których należą obserwacje
prognozowaniu kategorii obserwacji na podstawie jej cech
poszukiwaniu przypadków najbardziej reprezentacyjnych dla klas
rozróżnianiu obserwowanych cech na wejściowe i wyjściowe
prognozowaniu kategorii obserwacji na podstawie jej cech
Klasyczny (perceptronowy) model neuronu posiada dwa wejścia o wagach w1=1, w2=2, na które podano odpowiednio sygnały x1=−1, x2=+1. Funkcja aktywacji jest funkcją liniową postaci y=2x. Sygnał wyjściowy neuronu wynosi:
2
-1
0
1
2
Oryginalna zmienna x przyjmuje trzy wartości: -2, 1, 4. Po przeprowadzeniu normalizacji tej zmiennej wg metody min-max do przedziału [0, 1], oryginalnej wartości 1 odpowiada znormalizowana wartość:
0,5
0,75
0,25
1
0,5
.Argumentem funkcji aktywacji neuronu typu RBF jest
ważona liczba wejść danego neuronu
suma sygnałów x1 + x2 + ... wektora wejściowego x
odległość wektorów: wejściowego x i wag w
iloczyn skalarny wektorów: wejściowego x i wag w
odległość wektorów: wejściowego x i wag w
Przeuczenie modelu (overfitting) można rozpoznać po tym, że
w procesie uczenia zaczyna rosnąć błąd dla próby testowej
liczba błędnie zaklasyfikowanych przypadków spada do 0
trafność predykcji modelu przekracza poziom 99.73%
szybkość uczenia się modelu zaczyna spadać w kolejnych iteracjach
w procesie uczenia zaczyna rosnąć błąd dla próby testowej
Na etapie wstępnej eksploracyjnej analizy danych najmniej przydatne jest
wizualne porównanie współzależności par zmiennych
użycie metod nienadzorowanej klasteryzacji
wygenerowanie histogramów zmiennych ciągłych
zliczenie wystąpień wartości zmiennych nominalnych
wygenerowanie histogramów zmiennych ciągłych
.Iloczyn skalarny wektora cech z pewnym wektorem wag można traktować jako formę
regresji liniowej
obrotu w przestrzeni cech
redukcji wymiarowości
ekstrakcji cech
regresji liniowej
Metoda wzmacniania gradientowego (gradient boosting) służy do
przyspieszania procesu uczenia głębokich sieci neuronowych
budowania mocnego modelu złożonego z wielu słabszych modeli
zwiększania kontrastu pomiędzy blisko leżącymi klastrami
generowania dodatkowych sztucznych próbek w zbiorach uczących
budowania mocnego modelu złożonego z wielu słabszych modeli
Problem klasteryzacyjny polega na
poszukiwaniu granic oddzielających obserwacje różnych klas
identyfikacji skupisk zgodnie z pewnym kryterium podobieństwa
algorytmu wstecznej propagacji błędów
grupowaniu cech obserwacji w skorelowane ze sobą zespoły
predykcji przynależności danej obserwacji do różnych klas
identyfikacji skupisk zgodnie z pewnym kryterium podobieństwa
Wskaż drugi algorytm (metodę), który służy do rozwiązywania tego samego typu problemów eksploracji danych, co algorytm k-najbliższych sąsiadów
algorytm CART (drzewa klasyfikacyjne i regresyjne)
algorytm Kohonena (sieć neuronowa typu SOM)
algorytm k-średnich
algorytm PCA (analiza głównych składowych)
algorytm CART (drzewa klasyfikacyjne i regresyjne)
Poszukiwanie zbiorów częstych jest pierwszym etapem
algorytmu wstecznej propagacji błędów
algorytmu k-średnich
algorytmu A priori
algorytmu k-najbliższych sąsiadów
algorytmu A priori
Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych
sieć neuronowa typu RBF
liniowa regresja wieloraka
algorytm k-średnich
sieć neuronowa typu PERCEPTRON WIELOWARSTWOWY
algorytm k-średnich
Aglomeracyjne metody klasteryzacji polegają na
krokowym dodawaniu linii dzielących klastry w optymalnym miejscu
stopniowym ograniczaniu klastrów poprzez usuwanie outlierów
iteracyjnym dzieleniu klastrów na najbardziej odległe połowy
przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
Sieć neuronowa Kohonena (SOM) generalnie jest przeznaczona do realizacji
prognozowania lub szacowania wartości
klasyfikacji bezwzorcowej (grupowania)
klasyfikacji wzorcowej
analizy szeregów czasowych
klasyfikacji bezwzorcowej (grupowania)
Końcowe trzy etapy eksploracji danych w metodologii CRISP-DM to KOLEJNO: