Proces uczenia sieci neuronowej wiąże się (w kolejnych iteracjach algorytmu uczenia) z modyfikacją:
wzorców (przykładów) w zbiorze uczącym
wag neuronów
współczynników funkcji błędu
współczynników funkcji aktywacji
wag neuronów
Proces uczenia sieci neuronowej wiąże się (w kolejnych iteracjach algorytmu uczenia) z modyfikacją:
wzorców (przykładów) w zbiorze uczącym
wag neuronów
współczynników funkcji błędu
współczynników funkcji aktywacji
wag neuronów
MLP to skrót nazwy następującego narzędzia eksploracji danych
liniowa regresja wieloraka
sieć neuronowa typu perceptron wielowarstwowy
metoda liniowej prognozy
multiple linear prediction
sieć neuronowa typu perceptron wielowarstwowy
MLP to skrót nazwy następującego narzędzia eksploracji danych
liniowa regresja wieloraka
sieć neuronowa typu perceptron wielowarstwowy
metoda liniowej prognozy
multiple linear prediction
sieć neuronowa typu perceptron wielowarstwowy
Liczba warstw UKRYTYCH w sieci neuronowej typu RBF wynosi?
dokładnie 4
dokładnie 1
dokładnie 3
dokładnie 5
dokładnie 1
Liczba warstw UKRYTYCH w sieci neuronowej typu RBF wynosi?
dokładnie 4
dokładnie 1
dokładnie 3
dokładnie 5
dokładnie 1
Typowy zbiór danych używany do trenowania modeli uczenia maszynowego składa się z:
klas zawierających instancje
instancji zgrupowanych w kategorie
obserwacji obejmujących cechy
obiektów posiadających atrybuty
obserwacji obejmujących cechy
Typowy zbiór danych używany do trenowania modeli uczenia maszynowego składa się z:
klas zawierających instancje
instancji zgrupowanych w kategorie
obserwacji obejmujących cechy
obiektów posiadających atrybuty
obserwacji obejmujących cechy
Problem regresyjny polega na:
prognozowaniu wartości na podstawie obserwowanych cech
dopasowaniu współczynników modelu do obserwacji uczących
znajdowaniu prostej najlepiej dopasowanej do obserwacji
poszukiwaniu korelacji między zmiennymi wejściowymi
prognozowaniu wartości na podstawie obserwowanych cech
Problem regresyjny polega na:
prognozowaniu wartości na podstawie obserwowanych cech
dopasowaniu współczynników modelu do obserwacji uczących
znajdowaniu prostej najlepiej dopasowanej do obserwacji
poszukiwaniu korelacji między zmiennymi wejściowymi
prognozowaniu wartości na podstawie obserwowanych cech
Przycinanie drzew decyzyjnych stosuje się w celu:
redukcji liczby klas
eliminacji zmiennych nieistotnych
ponownego przeprowadzenia podziału w miejscu cięcia
uniknięcia przeuczenia i skomplikowania modelu
uniknięcia przeuczenia i skomplikowania modelu
Przycinanie drzew decyzyjnych stosuje się w celu:
redukcji liczby klas
eliminacji zmiennych nieistotnych
ponownego przeprowadzenia podziału w miejscu cięcia
uniknięcia przeuczenia i skomplikowania modelu
uniknięcia przeuczenia i skomplikowania modelu
Przyjęcie metryki L1 (metryki Manhattan) sprawia, że okręgi przyjmują kształt:
rombów
Trójkątów
elips
kardioid
rombów
Przyjęcie metryki L1 (metryki Manhattan) sprawia, że okręgi przyjmują kształt:
rombów
Trójkątów
elips
kardioid
rombów
Rolą pojedynczego neuronu w warstwie perceptronu użytego do klasyfikacji jest:
podział przestrzeni wejść na dwie półprzestrzenie
rozpoznawanie jednej ze znanych klas w zbiorze
rozpoznawanie jednego przypadku w zbiorze
klasyfikacja pojedynczej cechy wejściowej
podział przestrzeni wejść na dwie półprzestrzenie
Rolą pojedynczego neuronu w warstwie perceptronu użytego do klasyfikacji jest:
podział przestrzeni wejść na dwie półprzestrzenie
rozpoznawanie jednej ze znanych klas w zbiorze
rozpoznawanie jednego przypadku w zbiorze
klasyfikacja pojedynczej cechy wejściowej
podział przestrzeni wejść na dwie półprzestrzenie
Problem klasyfikacyjny polega na:
prognozowaniu kategorii obserwacji na podstawie jej cech
poszukiwaniu przypadków najbardziej reprezentacyjnych dla klas
ustaleniu optymalnej liczby klas, do których należą obserwacje
rozróżnianiu obserwowanych cech na wejściowe i wyjściowe
prognozowaniu kategorii obserwacji na podstawie jej cech
Problem klasyfikacyjny polega na:
prognozowaniu kategorii obserwacji na podstawie jej cech
poszukiwaniu przypadków najbardziej reprezentacyjnych dla klas
ustaleniu optymalnej liczby klas, do których należą obserwacje
rozróżnianiu obserwowanych cech na wejściowe i wyjściowe
prognozowaniu kategorii obserwacji na podstawie jej cech
Oryginalna zmienna x przyjmuje trzy wartości: -2, 1, 4. Po przeprowadzeniu normalizacji tej zmiennej wg metody min-max do przedziału [0, 1], oryginalnej wartości 1 odpowiada znormalizowana wartość:
0,25
0,5
0,75
1
0,5
Oryginalna zmienna x przyjmuje trzy wartości: -2, 1, 4. Po przeprowadzeniu normalizacji tej zmiennej wg metody min-max do przedziału [0, 1], oryginalnej wartości 1 odpowiada znormalizowana wartość:
0,25
0,5
0,75
1
0,5
Przeuczenie modelu (overfitting) można rozpoznać po tym, że:
szybkość uczenia się modelu zaczyna spadać w kolejnych iteracjach
liczba błędnie zaklasyfikowanych przypadków spada do 0
w procesie uczenia zaczyna rosnąć błąd dla próby testowej - chyba? [ale przeuczenie można rozpoznać po zakończonym uczeniu]
trafność predykcji modelu przekracza poziom 99.73%
w procesie uczenia zaczyna rosnąć błąd dla próby testowej - chyba? [ale przeuczenie można rozpoznać po zakończonym uczeniu]
Przeuczenie modelu (overfitting) można rozpoznać po tym, że:
szybkość uczenia się modelu zaczyna spadać w kolejnych iteracjach
liczba błędnie zaklasyfikowanych przypadków spada do 0
w procesie uczenia zaczyna rosnąć błąd dla próby testowej - chyba? [ale przeuczenie można rozpoznać po zakończonym uczeniu]
trafność predykcji modelu przekracza poziom 99.73%
w procesie uczenia zaczyna rosnąć błąd dla próby testowej - chyba? [ale przeuczenie można rozpoznać po zakończonym uczeniu]
Problem klasteryzacyjny polega na:
poszukiwaniu granic oddzielających obserwacje różnych klas
algorytmu wstecznej propagacji błędów
grupowaniu cech obserwacji w skorelowane ze sobą zespoły
predykcji przynależności danej obserwacji do różnych klas
identyfikacji skupisk zgodnie z pewnym kryterium podobieństwa
identyfikacji skupisk zgodnie z pewnym kryterium podobieństwa
Problem klasteryzacyjny polega na:
poszukiwaniu granic oddzielających obserwacje różnych klas
algorytmu wstecznej propagacji błędów
grupowaniu cech obserwacji w skorelowane ze sobą zespoły
predykcji przynależności danej obserwacji do różnych klas
identyfikacji skupisk zgodnie z pewnym kryterium podobieństwa
identyfikacji skupisk zgodnie z pewnym kryterium podobieństwa
Metoda K najbliższych sąsiadów wybiera sąsiadów analizowanego punktu:
należących do tego samego klastra
leżących w tym samym wymiarze przestrzeni
najbliższych pod względem cech wejściowych
najbliższych pod względem prognozowanej wartości
najbliższych pod względem cech wejściowych
Metoda K najbliższych sąsiadów wybiera sąsiadów analizowanego punktu:
należących do tego samego klastra
leżących w tym samym wymiarze przestrzeni
najbliższych pod względem cech wejściowych
najbliższych pod względem prognozowanej wartości
najbliższych pod względem cech wejściowych
Która z poniższych metod NIE służy do wyznaczania odległości pomiędzy skupieniami:
metoda k-średnich
metoda najdalszego sąsiedztwa - chyba
metoda średnich połączeń
metoda pojedynczego wiązania
metoda k-średnich
Która z poniższych metod NIE służy do wyznaczania odległości pomiędzy skupieniami:
metoda k-średnich
metoda najdalszego sąsiedztwa - chyba
metoda średnich połączeń
metoda pojedynczego wiązania
metoda k-średnich
Poszukiwanie zbiorów częstych jest pierwszym etapem:
algorytmu k-najbliższych sąsiadów
algorytmu A priori
algorytmu wstecznej propagacji błędów
algorytmu k-średnich
algorytmu A priori
Poszukiwanie zbiorów częstych jest pierwszym etapem:
algorytmu k-najbliższych sąsiadów
algorytmu A priori
algorytmu wstecznej propagacji błędów
algorytmu k-średnich
algorytmu A priori
Problem klasyfikacyjny można zamienić na problem regresyjny poprzez:
zamianę zmiennych kategorycznych na ciągłe
prognozowanie stopnia przynależności do klasy
zmniejszenie liczby wymiarów do dwóch
zredukowanie liczby klas do jednej
zamianę zmiennych kategorycznych na ciągłe
Problem klasyfikacyjny można zamienić na problem regresyjny poprzez:
zamianę zmiennych kategorycznych na ciągłe
prognozowanie stopnia przynależności do klasy
zmniejszenie liczby wymiarów do dwóch
zredukowanie liczby klas do jednej
zamianę zmiennych kategorycznych na ciągłe
Sieć neuronowa Kohonena (SOM) generalnie jest przeznaczona do realizacji:
klasyfikacji bezwzorcowej (grupowania)
prognozowania lub szacowania wartości
klasyfikacji wzorcowej
analizy szeregów czasowych
klasyfikacji bezwzorcowej (grupowania)
Sieć neuronowa Kohonena (SOM) generalnie jest przeznaczona do realizacji:
klasyfikacji bezwzorcowej (grupowania)
prognozowania lub szacowania wartości
klasyfikacji wzorcowej
analizy szeregów czasowych
klasyfikacji bezwzorcowej (grupowania)
Wskaż drugi algorytm (metodę), który służy do rozwiązywania tego samego typu problemów eksploracji danych, co algorytm k-najbliższych sąsiadów:
algorytm PCA (analiza głównych składowych)
algorytm k-średnich
algorytm CART (drzewa klasyfikacyjne i regresyjne)
algorytm Kohonena (sieć neuronowa typu
algorytm CART (drzewa klasyfikacyjne i regresyjne)
Wskaż drugi algorytm (metodę), który służy do rozwiązywania tego samego typu problemów eksploracji danych, co algorytm k-najbliższych sąsiadów:
algorytm PCA (analiza głównych składowych)
algorytm k-średnich
algorytm CART (drzewa klasyfikacyjne i regresyjne)
algorytm Kohonena (sieć neuronowa typu
algorytm CART (drzewa klasyfikacyjne i regresyjne)
Na etapie wstępnej eksploracyjnej analizy danych najmniej przydatne jest:
zliczenie wystąpień wartości zmiennych nominalnych
wygenerowanie histogramów zmiennych ciągłych
użycie metod nienadzorowanej klasteryzacji
wizualne porównanie współzależności par zmiennych
użycie metod nienadzorowanej klasteryzacji
Na etapie wstępnej eksploracyjnej analizy danych najmniej przydatne jest:
zliczenie wystąpień wartości zmiennych nominalnych
wygenerowanie histogramów zmiennych ciągłych
użycie metod nienadzorowanej klasteryzacji
wizualne porównanie współzależności par zmiennych
użycie metod nienadzorowanej klasteryzacji
Klasyczny (perceptronowy) model neuronu posiada dwa wejścia o wagach w1=1, w2=2, na które podano odpowiednio sygnały x1=−1, x2=+1. Funkcja aktywacji jest funkcją liniową postaci y=2x. Sygnał wyjściowy neuronu wynosi:
1
-1
2
0
2
Klasyczny (perceptronowy) model neuronu posiada dwa wejścia o wagach w1=1, w2=2, na które podano odpowiednio sygnały x1=−1, x2=+1. Funkcja aktywacji jest funkcją liniową postaci y=2x. Sygnał wyjściowy neuronu wynosi: