Ответы на вопросы к экзамену PDF
Document Details
Uploaded by Deleted User
Tags
Summary
Документ содержит ответы на вопросы к экзамену по различным темам, включая машинное обучение, классификацию и другие. Ответы представлено в формате вопрос-ответ.
Full Transcript
Ответы на вопросы к экзамену. Формат файла: номер вопроса, сам вопрос, и правильные варианты ответа, номер вопроса по списку а не из файлов, чтобы знать сколько вопросов в базе. Сначала идет список 100% верных ответов, далее около ответа будет обозначено если он не на полный балл. 1\. Показатель...
Ответы на вопросы к экзамену. Формат файла: номер вопроса, сам вопрос, и правильные варианты ответа, номер вопроса по списку а не из файлов, чтобы знать сколько вопросов в базе. Сначала идет список 100% верных ответов, далее около ответа будет обозначено если он не на полный балл. 1\. Показатель Precision определяется как a\. доля известных отрицательных решений +b. показатель, характеризующий качество положительного прогноза, сделанного классификатором c\. доля известных положительных решений +d. число правильно предсказанных классификатором положительных решений, поделённое на число предсказанных классификатором положительных решений e\. доля правильно предсказанных отрицательных решений f\. число правильно предсказанных положительных решений g\. число правильно предсказанных положительных решений, поделённое на число известных положительных решений 2\. Классификатор на основе knn-алгоритма использует: a\. параметр глубины поиска b\. индекс Джини c\. параметр регуляризации +d. расстояния до ближайших соседей e\. опорные векторы +f. число ближайших соседей 3\. Правило большинства голосов может использоваться в: a\. SVM-классификатор b\. UMAP-алгоритм +c. knn-классификаторе +d. классификаторе на основе решающих пней e\. RNN-кклассификатор +f. RF-классификатор 4\. Сэмплинг используется: a\. для выявления коррелирующих признаков b\. для разбиения паттернов данных на обучающую и тестовую выборки +c. для повышения эффективности алгоритмов обработки данных d\. для отбора репрезентативных признаков паттернов данных e\. для генерации новых признаков паттернов данных +f. для балансировки классов 5\. При выполнении процедуры слияния кластеров используют: +a. метод невзвешенного попарного среднего b\. фитнес-функцию c\. критерий Gini +d. метод взвешенного попарного среднего +e. метод одиночной связи +f. метод полной связи g\. метод парных сравнений 6\. Выберите правильное утверждение: +a. пороговая функция непрерывна, при том не дифференцируема, она почти не используется в нейросетях глубокого обучения b\. сигмоидная функция активации вычисляется как F(x) = (exp(x) -exp(-x))/(exp(x) +exp(-x)) +c. искусственный нейрон получает входные значения, которые могут выглядеть как векторные или числовые значения, представляющие признаки или значения от предыдущих нейронов d\. пороговая функция всегда используется в нейросетях глубокого обучения +e. если значение ступенчатой функции активации превышает некоторый порог, нейрон считается активированным 7\. Рекуррентная нейронная сеть - это: a\. UMAP +b. нейронная сеть, в которой связи между элементами образуют направленную последовательность c\. CNN +d. LSTM e\. нейронная сеть, в которой связи между элементами образуют случайную последовательность f\. random neural network +g. GRU h\. RF 8\. Проклятие размерности сопровождается: +a. необходимостью хранения огромных объемов данных b\. взрывным градиентом c\. потерей признаков паттернов данных d\. снижением размерности данных +e. увеличением доли шумов +f. трудоемкостью вычислений 9\. Левередж: +a. разность между наблюдаемой частотой, с которой условие и следствие появляются совместно, и произведением частот появления условия и следствия по отдельности b\. разность между наблюдаемой частотой, с которой условие и следствие появляются совместно, и суммой частот появления условия и следствия по отдельности c\. произведение наблюдаемой частоты, с которой условие и следствие появляются совместно, и суммы частот появления условия и следствия по отдельности 10\. Верным является утверждение: +a. если число транзакций, содержащих A и B, равно 20, а число транзакций, содержащих A, равно 40, то достоверность равна 0.5 b\. если число транзакций, содержащих A и B, равно 10, число транзакций, содержащих A, равно 20, число транзакций, содержащих B, равно 5, то левередж равен 2.5 +c. если число транзакций, содержащих A и B, равно 10, число транзакций, содержащих A, равно 20, число транзакций, содержащих B, равно 1, то левередж равен 0.5 d\. если число транзакций, содержащих A и B, равно 10, а число транзакций, содержащих A, равно 20, то достоверность равна 2 11\. Верным является утверждение: +a. любой k-элементный набор будет часто встречающимся тогда и только тогда, когда все его (k - 1)-элементные подмножества будут часто встречающимися +b. с ростом размера набора элементов поддержка уменьшается, либо остается такой же c\. с ростом размера набора элементов поддержка увеличивается, либо остается такой же 12\. Генетический алгоритм работает: +a. с популяцией решений b\. с клонами +c. с коэффициентом скрещивания +d. с хромосомами 13\. Популяционный алгоритм: a\. использует в своей работе кодирование функции соответствия +b. использует в своей работе кодирование решения +c. применяется для решения задач оптимизации d\. при любых настройках всегда находит глобальный экстремум e\. предполагает вычисление градиента функции соответствия 14\. Верным является утверждение: а. с ростом размера набора элементов поддержка увеличивается, либо остается такой же +b. с ростом размера набора элементов поддержка уменьшается, либо остается такой же +с. любой К-элементный набор будет часто встречающимся тогда и только тогда, когда все его (К - 1)-элементные подмножества будут часто встречающимися 15\. При разработке классификатора на основе SVM-алгоритма необходимо задать: а. число опорных векторов +b. функцию ядра с. число соседей d\. число периферийных векторов е. максимальное число признаков +f. значение параметра регуляризации +g. значения параметров функции ядра 16\. Функция ядра может быть: +а. линейной +b. радиальной базисной с. арккосинусной d\. ступенчатой е. логнормальной f\. синусоидальной +g. полиномиальной 17\. При реализации knn-классификатора могут применяться: +а. метрика Минковского +b. простое невзвешенное голосование с. паттерны-нарушители +d. взвешенное голосование е. правило классификации в виде аналитической формулы +f. метрика евклидова расстояния 18\. При реализации knn-классификатора могут применяться: +а. число соседей b\. функция ядра с. функция активации d\. периферийные паттерны данных е. гиперплоскость +f. метрика Минковского +g. манхэттенская метрика 19\. Задача кластеризации: +а. решается с использованием итеративных алгоритмов +b. заключается в разбиении паттернов данных на группы с учетом степени их сходства с. не требует масштабирования числовых паттернов по каждому признаку d\. всегда решается как, что каждый паттерн данных принадлежит одному кластеру +е. задача обучения без учителя f\. всегда требует, чтобы число кластеров было указано в явном виде +g. требует масштабирования числовых паттернов по каждому признаку 20\. Лифт: +а. отношение наблюдаемой частоты и частот появления по отдельности b\. разность наблюдаемой частоты и частот появления по отдельности с. сумма наблюдаемой частоты и частот появления по отдельности +d. мера полезности ассоциативного правила 21\. Связь между наборами предметов в ассоциативном правиле характеризуется с помощью: а. транзакции +b. поддержки +с. достоверности d\. частости 22\. Верным является утверждение: +а. поддержка S - доля транзакций, содержащих одновременно условие А и следствие В b\. достоверность С - доля транзакций, содержащих и условие А, и следствие В, к числу транзакций, содержащих только следствие В +с. достоверность С - доля транзакций, содержащих и условие А, и следствие В, к числу транзакций, содержащих только условие А d\. достоверность С - доля транзакций, содержащих одновременно условие А и следствие В 23\. Популяционным алгоритмом является: а. гарантирует сходимость решения к глобальному экстремуму при произвольном задании значений своих параметров b\. предполагает вычисление градиента функции соответствия +с. не требует явного задания оптимизируемых параметров в функции соответствия +d. не гарантирует сходимость решения к глобальному экстремуму при произвольном задании значений своих параметров 24\. Число ложно-положительных решений определяется как a\. доля неправильно предсказанных классификатором решений b\. число неправильно предсказанных классификатором положительных решений, поделённое на число предсказанных классификатором отрицательных решений c\. число неправильно предсказанных классификатором отрицательных решений +d. число неправильно предсказанных классификатором положительных решений +e. показатель FP f\. показатель Precision g\. отношения числа неправильно предсказанных классификатором положительных решений и числа известных положительных решений 25\. SMOTE-алгоритм: a\. является алгоритмом смешанного сэмплинга b\. является алгоритмом андерсэмплинга +c. реализует синтез новых паттернов данных с учетом числа ближайших соседей d\. является алгоритмом гибридного сэмплинга +e. реализует синтез паттернов миноритарного класса по всему пространству данных +f. является алгоритмом оверсэмплинга 26\. Метод StandardScaler позволяет: +a. провести масштабирование паттернов данных +b. оценить среднее значение и дисперсию по каждому признаку паттернов данных c\. привести значение каждого признака паттернов данных в диапазон 0, 1 d\. найти среднее и дисперсию для каждого паттерна данных e\. выполнить классификацию данных, подвергнутых стандартизации 27\. Верным является утверждение: +a. поддержка S - доля транзакций, содержащих одновременно условие A и следствие B +b. поддержка S вычисляется как (число транзакций, содержащих A и B)/общее число транзакций c\. поддержка S вычисляется как общее число транзакций/ (число транзакций, содержащих A и B) 28\. Число истинно-положительных решений определяется как a.среднегармоническое показателей Precision и Recall b.число правильно предсказанных классификатором отрицательных решений c.сумма чисел правильно предсказанных классификатором положительных решений и числа известных положительных решений d.число правильно предсказанных классификатором положительных решений, поделённое на число предсказанных классификатором положительных решений +e.показатель TP +f.число правильно предсказанных классификатором положительных решений g.отношение показателей TF и Recall 29\. fuzzy-c-means a.является алгоритмом нечеткой классификации +b.работает с нечеткой функцией принадлежности +c.требует, чтобы число кластеров было априори задано d.не требует, чтобы число кластеров было априори задано +e.является алгоритмом нечеткой кластеризации f.использует в своей работе для каждого паттерна несколько ближайших соседей +g.использует фаззификатор h.анализирует число соседей в эпсилон-окрестности каждого паттерна данных 30\. Метод Normalizer позволяет +a.преобразовать каждый паттерн с хотя бы одним ненулевым компонентом независимо от других паттернов так, чтобы ее норма была равна единице b.выполнить масштабирование каждого признака паттернов в наборе данных с учетом среднего значения и дисперсии c.найти минимальное и максимальное значение по каждому признаку паттерна из набора данных d.привести значение каждого признака паттернов данных в диапазон \[0, 1\] e.выполнить кластеризацию паттернов данных +f.изменить масштаб вектора для каждого паттерна данных, чтобы получить единичную норму, независимо от распределения паттернов g.выполнить классификацию паттернов данных 31\. Верным является утверждение: +a. базовыми понятиями теории ассоциативных правил являются транзакция, предметный набор, частота набора, поддержка, достоверность +b.предметный набор, удовлетворяющий уровню минимальной поддержки, называется частым c.предметный набор, удовлетворяющий уровню максимальной поддержки, называется частым 32\. Верным является утверждение: a.свойство монотонности утверждает, что если предметный набор не является частым, то добавление в него некоторого нового предмета делает его более частым b.свойство антимонотонности утверждает, что если предметный набор не является частым, то добавление в него некоторого нового предмета делает его более частым c.свойство антимонотонности утверждает, что если предметный набор является частым, то добавление в него некоторого нового предмета делает его более частым +d.свойство антимонотонности утверждает, что если предметный набор не является частым, то добавление в него некоторого нового предмета не делает его более частым 33\. В машинном обучении масштабирование используют +a. для преобразования значений признаков на основе статистики, устойчивой к выбросам b\. с целью сделать дисперсию по всем признакам одинаковой +c. для приведения значений каждого признака в отрезок 0, 1 d\. с целью сделать стандартное отклонение по всем признакам равным нулю или единице e\. для выявления выбросов f\. для приведения всех значений всех признаков в отрезок 0, 1 так, что минимальное значение по всем признакам равно \"0\", а максимальное - \"1\" +g. для преобразования данных так, что по каждому признаку среднее значение равно нулю, а дисперсия равна единице. 34\. При разработке RF-классификатора необходимо задать: +a. критерий расщепления b\. число слоёв +c. максимальную глубину дерева +d. число деревьев e\. размер батча f\. максимальное число соседей 35\. Задача кластеризации: a\. требует, чтобы были известны метки кластеров паттернов данных b\. требует априорного указания центроидов кластеров +c. решается с использованием итеративных алгоритмов d\. задача обучения с учителем +e. задача обучения без учителя f\. требует априорного указания числа опорных векторов +g. решается с использованием иерархических агломеративных алгоритмов 36\. Выберите правильное утверждение: a\. RNN - random neural network b\. GRU - guested random uniform +c. GRU - gated recurrent unit +d. RNN - recurrent neural network +e. существуют как взрывные, так и исчезающие градиенты f\. FCM - frequent configuration memory g\. RNN - random neural neigbor h\. UMAP - uniform main artificial package 37\. Функции активации a\. используются в KNN-классификаторе при формировании итогового решения b\. могут быть только сигмоидными и ступенчатыми +c. могут быть ступенчатыми, линейными и сигмоидными d\. используются в RF-классификаторе при формировании итогового решения e\. могут быть только сигмоидными +f. могут определяется как гиперболический тангенс и ReLU g\. применяются при расчете межквартильных расстояний 38.Проклятие размерности особенно актуально для: a\. ящиков с усами +b. метрических алгоритмов классификации c\. опорных векторов d\. бэггинга +e. knn-алгоритма f\. тепловых карт g\. диаграмм рассеивания 39\. В теории оптимизации: +a. оператор смещения к нулю существует +b. проявление, вызываемое оператором центрального смещения, заключается в том, что алгоритм оптимизации, содержащий его, сходится в центр пространства поиска c\. наличие центрального смещения (center-bias) у алгоритма оптимизации является достоинством d\. проявление, вызываемое оператором центрального смещения, заключается в том, что алгоритм оптимизации, содержащий его, не сходится в центр пространства поиска +e. наличие центрального смещения (center-bias) у алгоритма оптимизации является недостатком 40\. Отношение числа запусков, в которых алгоритм находит решение задачи с заданной точностью, к общему числу запусков алгоритма -- это: a\. главный показатель качества работы популяционного алгоритма b\. скорость алгоритма c\. средний номер поколения +d. один из показателей качества работы популяционного алгоритма +e. надежность алгоритма f\. точность алгоритма g\. обязательный показатель качества работы популяционного алгоритма 41\. Число предсказанных классификатором положительных решений: +a. TP+FP +b. сумма числа истинноположительных решений и числа ложноположительных решений c\. модуль разности числа истинноположительных решений и числа ложноположительных решений d\. TNFP e\. TPFN f\. TNFN g\. максимум из числа истинноположительных решений и числа ложноположительных решений 42\. Слой dropout +a. помогает предотвратить переобучение, улучшить обобщающую способность классификатора и повысить его устойчивость +b. работает так, что в нём случайным образом обнуляют (отключают) некоторые выходы (нейроны) в процессе обучения классификатора +c. метод регуляризации, применяемый в нейронных сетях d\. досрочно завершает обучение нейросети в случае обнаружения проблемы исчезающего градиента e\. метод регуляризации, применяемый в SVM-алгоритм 43\. Верным является утверждение: +a. с ростом размера набора элементов поддержка уменьшается, либо остается такой же +b. поддержка любого набора элементов не может превышать минимальной поддержки любого из его подмножеств c\. любой k-элементный набор будет часто встречающимся тогда и только тогда, когда все (k + 1)-элементные подмножества будут часто встречающимися 44\. Верным является утверждение: +a. с ростом размера набора элементов поддержка уменьшается, либо остается такой же +b. поддержка любого набора элементов не может превышать минимальной поддержки любого из его подмножеств +c. любой k-элементный набор будет часто встречающимся тогда и только тогда, когда все (k - 1)-элементные подмножества будут часто встречающимися 45\. Лифт показывает: +a. полезнее ли правило случайного угадывания b\. если лифт =1, то вероятнее предсказать наличие набора с помощью правила, чем угадать случайно c\. если лифт \1, то вероятнее предсказать наличие набора с помощью правила, чем угадать случайно 46\. Генетический алгоритм +a. может использовать стратегии элитизма b\. решает только задачу поиска глобального минимума +c. это эвристический алгоритм поиска d\. всегда находит точное решение в отличие от метода сопряженных градиентов +e. может использовать инбридинг и аутбридинг +f. может использовать стратегию панмиксии g\. работает с частицами, которые ориентируются на глобальную и локальную информацию о результатах решения задачи оптимизации в текущем поколении h\. это алгоритм переподгонки 47\. Алгоритм связей Томека: +a. реализует удаление паттернов данных мажоритарного класса, входящих в связи Томека b\. реализует удаление паттернов данных мажоритарного класса и синтез паттернов данных миноритарного класса, входящих в связи Томека c\. реализует случайный синтез новых паттернов данных d\. реализует синтез паттернов данных миноритарного класса, входящих в связи Томека e\. не удаляет шумовые паттерны данных +f. хорошо удаляет шумовые паттерны данных 48\. Разведочный анализ данных позволяет +a. оценить центральную тенденцию в данных +b. оценить асимметрию данных c\. оценить выполнение свойства антимонотонности +d. оценить дисперсию в данных e\. оценить значение функции потерь +f. оценить корреляцию в данных g\. оценить достоверность h\. оценить число опорных векторов 49\. Ошибкой первого рода является: +a.ошибочное отклонение нулевой гипотезы b.отнесение паттерна данных к тому классу, к которому он принадлежит в действительности c.отнесение паттерна данных к классу, к которому он на самом деле принадлежит d.отнесение паттерна данных к какому-либо классу, к которому он на самом деле не принадлежит +e.отнесение паттерна данных не к тому классу, к которому он принадлежит в действительности 50\. В классификаторе на основе RF-алгоритма: a.используется комитет решающих деревьев для признания паттерна данных в качестве выброса (шума) b.используется эпсилон-окрестность +c.используется комитет решающих деревьев для принятия решения о классовой принадлежности паттерна данных d.используется комитет решающих деревьев для признания паттерна данных в качестве миноритарного +e.используется метод случайных подпространств f.используется евклидова метрика расстояния 51\. В алгоритме, реализующем правило \"очищающего\" соседа: a.осуществляется синтез паттернов данных класса меньшинства b.осуществляется дублирование паттернов данных миноритарного класса +c.удаляются паттерны данных мажоритарного класса, получившие правильную метку класса d.осуществляется случайный оверсэмплинг +e.паттерны данных классифицируются по правилу трех ближайших соседей f.осуществляется синтез периферийных паттернов данных класса меньшинства g.удаляются паттерны данных миноритарного класса, получившие правильную метку класса 52\. Сигмоидная функция активации a.используется вместо dropout b.задается формулой F(x) = exp((x -m)\^2/s\^2), где x - входное значение, m - среднее, s - стандартное отклонение +c.такова, что её использование может приводить к появлению эффекта затухания градиента при обратном распространении ошибки и слишком малом его значении, что очень плохо для обновления весов нейронов и обучения глубоких нейронных сетей с большим числом слоев. d.задается формулой F(x) = exp(a\*x), где x - входное значение, a - некоторый параметр +e.такова, что в области сильных положительных или отрицательных значений её производная принимает малые значения f.задается формулой вида F(x) = sign(a\*x), где x - входное значение, a - некоторый параметр +g.задается формулой F(x) = 1/(1+exp(-a\*x)), где x - входное значение, a - некоторый параметр 53\. Верным является утверждение: a.достоверность С - доля транзакций, содержащих и условие A, и следствие B, к числу транзакций, содержащих только следствие B b.достоверность С - доля транзакций, содержащих одновременно условие A и следствие B +c.достоверность С - доля транзакций, содержащих и условие A, и следствие B, к числу транзакций, содержащих только условие A +d.поддержка S - доля транзакций, содержащих одновременно условие A и следствие B 54\. Верным является утверждение: +a.если число транзакций, содержащих A и B равно 10, число транзакций, содержащих A, равно 20, число транзакций, содержащих B, равно 5, то левередж равен 0.1 b.если число транзакций, содержащих A и B равно 10, число транзакций, содержащих A, равно 20, число транзакций, содержащих B, равно 5, то левередж равен 2,5 c.если число транзакций, содержащих A и B равно 10, а число транзакций, содержащих A, равно 20, то достоверность равна 2 +d.если число транзакций, содержащих A и B равно 10, а число транзакций, содержащих A, равно 20, то достоверность равна 0.5 55\. Популяционным алгоритмом является: +a.PSO-алгоритм b.RF-алгоритм +c.алгоритм дифференциальной эволюции +d.алгоритм клонального отбора 56\. Генетический алгоритм +a.может использовать метод ранжированного отбора при выборе хромосом-родителей +b.может использовать метод турнирного отбора при выборе хромосом-родителей c.может использовать метод турнирного отбора при выборе хромосом-отпрысков d.может использовать метод ранжированного отбора при выборе хромосом-отпрысков +e.может использовать метод рулетки при выборе хромосом-родителей 57\. Выберите правильные утверждения: +a.алгоритм роя частиц является биоинспирированным b.алгоритм роя частиц не является биоинспирированным +c.алгоритм кукушки является биоинспирированным +d.чтобы перейти от задачи поиска максимума к задаче поиска минимума, нужно умножить целевую функцию на ( -- 1) e.квантовый алгоритм является биоинспирированным f.алгоритм кукушки не является биоинспирированным g.чтобы перейти от задачи поиска максимума к задаче поиска минимума, нужно взять отношение единицы к целевой функции 58\. Классификатор на основе knn-алгоритма использует: a.весовые коэффициенты, прямо пропорциональные расстоянию 40 ближайших соседей +b.число ближайших соседей c.функцию ядра для вычисления расстояния при невзвешенном голосовании +d.правило голосования по большинству голосов e.правило принятия решений в виде аналитической формулы f.каскадное принятие решений +g.весовые коэффициенты, обратно пропорциональные расстоянию до ближайших соседей 59\. k-means а. использует эпсилон-окрестность при решении задачи классификации b\. является алгоритмом иерархической кластеризации +с. находит локально-оптимальное разбиение паттернов данных +d. минимизирует сумму квадратов расстояний между центроидами кластеров и паттернами, принадлежащими этим кластерам е. минимизирует сумму квадратов расстояний между медоидами кластеров и паттернами, принадлежащими этим кластерам +f. находит кластеры гиперсферической формы g\. использует эпсилон-окрестность при решении задачи кластеризации h\. находит глобально-оптимальное разбиение паттернов данных 60\. Сигмоидная функция активации а. имеет сложное выражение для производной, что затрудняет ее использование в алгоритмах обучения b\. ступенчатая функция, которая преобразует входное значение B диапазоне от отрицательной бесконечности до положительной бесконечности в значение от 0 до 1. +с. имеет простое выражение для производной, что используется в алгоритмах обучения +d. дифференцируема на всей оси абсцисс е. имеет точки разрыва +f. может быть записана как F(x) = 1/(1+exp(-x)), где х - входное значение g\. может быть записана как F(x) = 1/(1-ехр(-х)), где х - входное значение +h. нелинейная функция, которая преобразует входное значение в диапазоне от отрицательной бесконечности до положительной бесконечности в значение от 0 до 1 61\. Верным является утверждение: а. с ростом размера набора элементов поддержка увеличивается, либо остается такой же +b. с ростом размера набора элементов поддержка уменьшается, либо остается такой же +с. любой К-элементный набор будет часто встречающимся тогда и только тогда, когда все его (К - 1)-элементные подмножества будут часто встречающимися Вопросы, требующие доработки, +- это тот вариант который выбрал студент, + это достоверно правильный вариант, когда проверяете вопросы, учитывайте это и ставьте единым форматом. ================================================================================================================================================================================= синий - ответ LLM Считать вместе с желтыми и зелёными красный - значит что ответ точно неправильный и не нужно его выбирать 62\. Выберите правильные утверждения (сделано): a\. число итераций, требуемое для достижения глобального экстремума зависит только от поисковой способности самого алгоритма оптимизации +b. устойчивость сходимости алгоритма можно понимать как повторяемость результатов оптимизации при проведении нескольких подряд запусков алгоритма оптимизации: если решения, найденные при разных запусках алгоритма, имеют большие расхождения в значениях, то можно сделать вывод о том, что устойчивость сходимости алгоритма низкая +c. если функция характеризуется высокой сложностью ландшафта (например, имеет много локальных экстремумов, изломов, разрывов и т.п.), то алгоритм оптимизации может оказаться неустойчивым и может быть так, что вообще не сможет обеспечить требуемую точность поиска решения +d. число итераций, требуемое для достижения глобального экстремума зависит не только от поисковой способности самого алгоритма оптимизации, но и от ландшафта целевой функции +e. средний номер поколения вычисляется как среднее число по номерам поколений, на которых было впервые найдено решение задачи с заданной точностью 63.В алгоритме, реализующем правило \"очищающего\" соседа: (0,67 из 1, система сказала, что 2 ответа правильные) +-a. объекты классифицируются по правилу трех ближайших соседей b\. реализуется построение дендрограммы на основе паттернов данных c\. реализуется поиск опорных векторов d\. паттерны данных классифицируются по правилу пяти ближайших соседей e\. реализуется поиск связей Томека f\. удаляются мажоритарные паттерны данных, являющиеся соседями миноритарных паттернов данных, которые были неверно классифицированы +g. удаляются мажоритарные паттерны данных, получившие правильную метку класса Тут fg точно правильно, а вот насчёт а - сомнения 64\. Верным является утверждение (0,5 из 1, вероятно 1/2 правильные, но тут система ничего не сказала): UPD: сделано, инфа из лекций +-а. поддержка S - доля транзакций, содержащих одновременно условие А и следствие В b\. поддержка S вычисляется как (число транзакций, содержащих А и В)/общее число транзакций с. поддержка S вычисляется как общее число транзакций/ (число транзакций, содержащих А и В) 65\. Задача оптимизации решается (сделано) +a. в RNN +b. в LSTM с. в FPG +d. в UMAP алгоритме +е. в SVM алгоритме 66\. Алгоритм borderline-SMOTE1 (0,5 из 1, система написала что выбран 1 верный ответ) a\. выделяет паттерны трёх типов: пограничные, периферийные и шумовые +b. синтезирует паттерны миноритарного класса вдоль границы классов, работая с паттернами типа in danger\", принадлежащими миноритарному классу \" c\. синтезирует паттерны миноритарного класса вдоль границы классов, работая с паттернами типа \"save\", принадлежащими миноритарному классу d\. выделяет паттерны двух типов: пограничные и периферийные 67\. При разработке классификатора на основе RF-алгоритм (0,75 из 1, вероятно 3/4 правильные, но тут система ничего не сказала) +-a. реализуются методы оценивания значимости признаков +-b. возможна оценка обобщенной способности модели, которая учитывает ошибку при построении на \"неотобранных\" паттернах данных +-c. может использоваться индекс Gini d\. отсутствует проблема переподгонки e\. присутствует проблема переподгонки f\. используются паттерны-нарушители g\. в явном виде записывается решающее правило классификации 68\. Для оценки качества кластеризации можно использовать (0,67 из 1, вероятно 2/3 правильные, но тут система ничего не сказала): +-a. индекс Се-Бени b\. показатель F-мер c\. UMAP-алгорит d\. t-sne-алгоритм e\. критерий Gini +-f. индекс кластерного силуэта g\. функцию соответствия h\. индекс локтя 69\. Выберите правильное утверждение (0,75 из 1, система написала что выбрано 3 верных ответа): a\. число пакетов - число эпох +b. число итерации - число батчей, необходимых для завершения одной эпохи +c. за одну эпоху весь набор данных проходит через нейронную сеть в прямом и обратном направлении только один раз d\. размер батча - число тренировочных паттернов, представленных в одном батче e\. число паттернов из обучающей выборки данных, используемых для оценки градиента ошибки, называется числом эпох +f. набор данных делят на батчи, так как одна эпоха слишком велика для используемой вычислительной мощности 70\. Настройка весов в нейронной сети (0,5 из 1, вероятно 1/2 правильные, но тут система ничего не сказала, d неверно по мнению гения из заметок и он выбирает варианты a g, но надо g и h сверить) +-a. может быть реализована методом градиентного спуска b\. не выполняется c\. симплекс-методом d\. выполняется на валидационной выборке e\. может быть реализована методом простого большинства голосов f\. может быть реализована методом ветвей и границ g\. предполагает, что меньшие веса в нейронной сети могут привести к тому, что классификатор будет более стабильным и с меньшей вероятностью будет переобучаться на тренировочном наборе данных, и, следовательно, будет иметь более высокую точность при прогнозировании новых данных. h\. предполагает, что меньшие веса в нейронной сети могут привести к тому, что классификатор будет более стабильным и с меньшей вероятностью будет переобучаться на тестовом наборе данных, и, следовательно, будет иметь более высокую точность при прогнозировании новых данных. i\. выполняется на тестовой выборке 71\. Скрипичный график (0,67 из 1, система написала что выбрано 2 правильных ответа) +a. используется для визуализации распределения данных и их плотности вероятности b\. содержит толстую черную полосу в центре, которая представляет межквартильный диапазон, исходящая из нее тонкая черная линия представляет собой доверительные интервалы с 95%-ной вероятностью, а белая точка представляет собой медиану c\. является ящиком с усами +d. сочетает в себе диаграмму размаха и график плотности, развернутые и расположенные по обе стороны для отображения формы распределения данных e\. используется при построении кластерного силуэта f\. аналогичен коробчатой диаграмме g\. аналогичен тепловой карте h\. является бокс-плотом 72\. Популяционным алгоритмом является: (0,67 из 1, вероятно 2/3, но система ничего не сказала) a\. knn-алгоритм b\. электро-магнитный алгоритм +-c. алгоритм роя частиц +-d. GA 73\. В теории оптимизации: (0,67 из 1, система сказала что 2 верных ответа) a\. не существует No Free Breakfast theorem UPD: очевидно, что переводом с англ. языка подходит е b\. существуют бесплатные обеды c\. существуют бесплатные завтраки d\. существуют бесплатные ужины e\. не существуют бесплатные завтраки +f. существует No Free Breakfast theorem g\. не существуют Coevolutionary Free Lunches +h. существуют Coevolutionary Free Lunches 74\. Специфичность - это (0,67 из 1, в заметках указали что вариант b то же что и a, просто другими словами): +-a.доля отрицательных решений, которые правильно идентифицированы как таковые b.число правильно предсказанных классификатором отрицательных решений, поделённое на число известных отрицательных решений c.число правильно предсказанных отрицательных решений d.число правильно предсказанных положительных решений e.число правильно предсказанных положительных решений, поделённое на число известных положительных решений f.TP/(TP + FN) +-g.TN/(TN + FP) 75\. При разработке RF-классификатора используют (0,75 из 1, в заметках указали RF-алгоритм сочетает в себе идеи метода бэггинга (bagging, bootstrap aggregating)): +-a.критерий расщепления b.опорные векторы c.периферийные паттерны данных d.функцию ядра +-e.голосование f.бутстрэп +-g.бэггинг 76.Справедливо утверждение(0,67 из 1, в заметках указали еще вариант d): a.Алгоритмы borderline-SMOTE1 и borderline-SMOTE2 строят границу классов +-b.все мажоритарные паттерны данных, входящие в связи Томека, должны быть удалены из набора данных c.в алгоритме связей Томека анализируют расстояния между тремя паттернами данных d.в алгоритме связей Томека анализируют расстояния между двумя паттернами данных +-e.borderline-SMOTE1-алгоритм позволяет реализовать оверсэмплинг паттернов данных вдоль границы классов 77.Популяционный алгоритм (0,5 из 1, вероятно 1/2, но система ничего не сказала): a.не требует явного задания оптимизируемых параметров в функции соответствия b.гарантирует сходимость решения к глобальному экстремуму при произвольном задании значений своих параметров c.предполагает вычисление градиента функции соответствия +-d.не гарантирует сходимость решения к глобальному экстремуму при произвольном задании значений своих параметров 78\. Ошибкой второго рода является: (0,5 из 1, вероятно 1/2, но система ничего не сказала, второй работяга ответил только а и это неверно) -a. отнесение паттерна данных не к тому классу, к которому он принадлежит в действительности b\. отнесение паттерна данных к какому-либо классу, к которому он на самом деле не принадлежит +-c. ситуация, когда принимается неверная нулевая гипотеза d\. отнесение паттерна данных к классу, к которому он на самом деле принадлежит e\. отнесение паттерна данных к тому классу, к которому он принадлежит в действительности 79\. Используя коробчатую диаграмму, можно оценить: (0,75 из 1, система указала что выбрано 3 верных ответа) UPD: Из ящика с усами можно определить IQR(Inter Quartil Range), то есть косвенно дисперсию. +a. медиану b\. статистическая взаимосвязь данных +c. квартили d\. пропуски в данных e\. дисперсию f\. непрерывность данных g\. корреляцию данных +h. асимметрию в данных 80\. Ошибки первого и второго рода: (0,5 из 1, вероятно 1/2, но система ничего не сказала) a\. в сумме дают единицу b\. минимизируют одновременно c\. являются взаимно-симметричными +- d. являются ключевыми понятиями задач проверки статистических гипотез 81\. Недостатки knn-классификатора: (0,67 из 1, вероятно 2/3, но система ничего не сказала) a\. наличие требования к репрезентативности набора данных +-b. отсутствие решающего правила классификации, представленного в явном виде c\. отсутствие требования к репрезентативности набора данных +-d. knn-классификатор нельзя \"отделить\" от данных: для классификации нового паттерна данных необходимо использовать все паттерны данных 82\. Коробчатая диаграмма - это: (0,5 из 1, система написала что 2 ответа верные, 2 из 4 верные) a\. графическое изображение, компактно показывающее одномерное распределение вероятностей b\. графическое изображение, в удобной форме показывающее процентили и выбросы в наборе данных c\. графическое изображение, в удобной форме показывающее взаимосвязь между дисперсией и стандартным отклонением для каждого признака в наборе данных +d. графическое изображение, в удобной форме показывающее медиану, нижний и верхний квартили, минимальное и максимальное значение набора данных и выбросы e\. графическое изображение, в удобной форме показывающее как процентили, так и квартили в наборе данных f\. графическое изображение, в удобной форме показывающее корреляцию для пар признаков в наборе данных +g. ящик с усами h\. диаграмма размаха 83\. В островном популяционном алгоритме оптимизации: (сделано) +a. возможна миграция по кольцу +b. возможна тороидальная миграция c\. при любых миграциях числа индивидуумов происходит перемешивание информации между островами, соответствующими подпопуляциям: в результате сохраняются локальные различия между островами +d. при частых миграциях большого числа индивидуумов происходит перемешивание информации между островами, соответствующими подпопуляциям: в результате устраняются локальные различия между островами +e. возможна миграции с топологией полной сети 84.Функция ядра позволяет: (0,5 из 1, вероятно 1/2, но система ничего не сказала) a\. определить паттерны-нарушители +-b. перейти в пространство более высокой размерности c\. перейти в пространство более низкой размерности d\. обеспечить линейную разделимость данных e\. выявить периферийные паттерны и использовать их в качестве опорных векторов f\. назначить паттернам метки классов g\. определить процентное соотношение опорных векторов к общему числу паттернов в наборе данных 85\. Достоинства knn-классификатора: (0,67 из 1, вероятно 2/3, но система ничего не сказала) a\. каскадность в принятии решений b\. иерархичность c\. устойчивость к аномальным выбросам +-d. модифицируемость алгоритма на основе различных метрик для вычисления расстояний e\. наличие решающего правила классификации +-f. простота реализации 86\. SMOTE-алгоритм: (0,75 из 1, вероятно 3/4, но система ничего не сказала) +-a. имеет модификации, обеспечивающие синтез новых паттернов данных вблизи границы классов b\. реализует только первый шаг алгоритма k ближайших соседей, заключающийся в их обнаружении +-c. алгоритм оверсэмплинга, основанный на оценке числа ближайших соседей d\. случайным образом удаляет паттерны данных класса большинства e\. включает в себя все шаги knn-алгоритма +-f. реализует синтез новых паттернов данных для класса меньшинства с учетом числа ближайших соседей 87\. Популяционный алгоритм: (0,5 из 1, система сказала что 1 ответ верный) a\. требует явного задания оптимизируемых параметров в функции соответствия +b. использует в своей работе кодирование решения c\. может использовать принцип элитизма при формировании популяции решений d\. использует в своей работе частные производные функции соответствия e\. предполагает вычисление градиента функции соответствия 87.5. Популяционный алгоритм: (0,5 из 1) a\. не требует явного задания оптимизируемых параметров в функции соответствия b\. гарантирует сходимость решения к глобальному экстремуму при произвольном задании значений своих параметров c\. предполагает вычисление градиента функции соответствия +d. не гарантирует сходимость решения к глобальному экстремуму при произвольном задании значений своих параметров 88\. Индекс локтя (0,67 из 1, система указала что 2 ответа выбраны верно) a.используют для определения оптимального числа классов +b.учитывает сумму квадратов расстояний от паттернов данных до центроида кластеров, к которому они отнесены +c.используют для определения оптимального числа кластеров d.не имеет конкретного диапазона, которому должны принадлежать его значения 89.Метод StandardScaler позволяет: (0,67 из 1, вероятно 2/3, но система ничего не сказала) +-а. выполнить масштабирование каждого признака паттернов в наборе данных с учетом среднего значения и дисперсии b\. оценить среднее значение и дисперсию для каждого признака паттернов данных с. привести все значения всех признаков паттернов данных B некоторый диапазон \[a, bl +-d. для каждого признака обнулить среднее значение, а дисперсию сделать равной единице e.найти минимальное и максимальное значение для каждого признака паттернов данных f.найти оптимальное разбиение паттернов данных на кластеры g\. привести значение каждого признака паттернов данных в диапазон \[0, 1\] 90\. Число ложно-отрицательных решений определяется как (0,5 из 1, система указала что 1 вариант выбран верно) UPD: очевидно, что e и f - это одно и то же a.число правильно предсказанных классификатором положительных решений, поделённое на число положительных решений b.число правильно предсказанных классификатором положительных решений, поделённое на число предсказанных классификатором положительных решений c.число правильно предсказанных классификатором положительных решений d.показатель TN e.число неправильно предсказанных классификатором отрицательных решений +f.показатель FN g.показатель ЕР 91\. ARI (0,67 из 1, система указала что 2 ответа верные) а. использует фаззификатор b\. мера сходства между двумя разбиениями данных на классы с. имеет значение, близкое к 0,0 для случайной маркировки метками кластеров независимо от числа кластеров и паттернов данных, и ровно 1,0, когда кластеризации идентичны (с точностью до перестановки) d\. Average Rand Index +е. Adjusted Rand Index f\. имеет значение, близкое к 0,0 для случайной маркировки метками классов независимо от числа классов и паттернов данных, и ровно 1,0, когда классификации идентичны (с точностью до перестановки) g\. использует априори заданное число классов. +h. мера сходства между двумя разбиениями данных на кластеры 92\. Выберите правильное утверждение: (0,67 из 1, система указала что 2 ответа верные) +а. градиент в нейронных сетях указывает на направление наибольшего роста функции потерь для всех весов по совокупности b\. градиентом в нейронных сетях называется вектор частных производных функции потерь по весам нейронной сети с. градиентом в нейронных сетях называется производная функции потерь d\. градиент в нейронных сетях указывает на направление наименьшего роста функции потерь для всех весов по совокупности +е. функции потерь используются для определения ошибки/потери между выходными данными и заданным целевым значением 93\. Тепловая карта (0,8 из 1, система указала что 4 ответа верные) а. имеет на диагонали числа, некоторые из которых могут быть равны нулю b\. такова, что отрицательный элемент в ней означает отрицательную корреляцию: значения признаков, сопоставленные этому элементу, обратны друг другу с. такова, что отрицательные элементы в ней означают отрицательную корреляцию: при увеличении значений одного признака значения второго признака уменьшаются +d. такова, что её ячейки закрашены цветами: чем сильнее корреляция, тем насыщеннее цвет +е. представляет собой таблицу, элементы которой могут принимать значения из диапазона \[-1, 1\] f\. представляет собой таблицу со значениями процентилей и квартилей +g. используется для визуализации корреляции в данных +h. представляет собой матрицу, диагональные элементы которой равны единице 94\. Выберите правильное утверждение: (0,67 из 1, система указала что 2 ответа правильных, другой работяга выбрал d и это неверно) а. решение задачи коммивояжера не может быть найдено с использованием метода сопряженных градиентов +b. в задаче оптимизации может существовать несколько локальных экстремумов +с. в задаче оптимизации может существовать несколько глобальных экстремумов -d. решение задачи коммивояжера может быть найдено с использованием метода Левенберга-Марквардта е. глобальный экстремум всегда единственный Вопросы с 0 баллов ================== ДАЛЬШЕ БОГА НЕТ, ВОПРОСЫ ПО 0 БАЛЛОВ, И ЗДЕСЬ ТРЕБУЕТСЯ МАКСИМУМ ПОМОЩИ, ЧТОБЫ ПОЛУЧИТЬ ХОТЬ КАКИЕ-ТО БАЛЛЫ ЗА ЭТИ ВОПРОСЫ. То, что выбрал студент обозначается этим цветом, возможно он и выбрал что-то правильное, но неправильные варианты вопрос обнулили, так что не надо отбрасывать эти варианты как сто процентов неправильные Синие с желтыми нужно читать отдельно 95\. Общий показатель ошибки определяется как (0 из 1) a\. отношение единицы к Overall Error Rate +-b. отношение общего числа ошибок, допущенных классификатором, к общему числу правильных решений классификатора c\. отношение единицы к Overall Success Rate +-d. отношение общего числа ошибок, допущенных классификатором, к общему числу известных решений\[Ответ нейронной сети\] e\. общее число ошибок, допущенных классификатором f\. отношение общего числа известных решений к общему числу ошибок, допущенных классификатором +-g. Overall Error Rate\[Ответ нейронной сети\] 96\. Выберите правильное утверждение: (0 из 1, здесь студент выбрал ток один вариант и он неверный) a\. чтобы найти оптимальное число кластеров, нужно рассмотреть результаты кластеризации при разном числе кластеров и выбрать тот результат, которому соответствует максимальное значение индекса кластерного силуэта b\. индекс Се-Бени учитывает значение целевой функции и расстояние между кластерами -c. k-means, UMAP, t-SNE алгоритмы кластеризаци d\. чтобы найти оптимальное число кластеров в наборе данных с использованием fuzzy c-means алгоритма, нужно рассмотреть результаты кластеризации при разном числе кластеров и выбрать тот результат, которому соответствует минимальное индекса Се-Бени e\. чтобы найти оптимальное число кластеров в наборе данных с использованием k-means алгоритма, нужно рассмотреть результаты кластеризации при разном числе кластеров и выбрать тот результат, которому соответствует максимальное индекса Се-Бени 97\. Для оценки качества популяционного алгоритма можно использовать: (0 из 1) +-a. номер итерации, на котором было впервые достигнуто последнее лучшее решение +-b. номер итерации, начиная с которого лучшее решение не изменялось c\. надежность алгоритма +-d. номер итерации, на котором было впервые достигнуто первое лучшее решение 98\. Верным является утверждение: (0 из 1) +-а. дисбаланс классов может приводить к ошибочной классификации паттернов класса большинства b\. андерсэмплинг не изменяет баланс классов в наборе данных с. алгоритм сэмплинга позволяет сделать так, что поддержка любого набора элементов не может превышать минимальной поддержки любого из его подмножеств +-d. SMOTE-алгоритм и алгоритм связей Томека выполняют модификацию набора данных противоположным образом\[Ответ нейронной сети\] е. при реализации алгоритма связей Томека с ростом размера набора элементов поддержка уменьшается, либо остается такой же +-f. алгоритм связей Томека реализует удаление паттернов данных мажоритарного класса, входящих в связи Томека\[Ответ нейронной сети\] g\. алгоритм связей Томека реализует удаление паттернов данных мажоритарного класса, не входящих в связи Томека 99\. Метод главных компонент: (0 из 1) а. не является методом снижения размерности b\. методом нелинейного снижения размерности +-с. реализует поиск подпространств меньшей размерности, в ортогональной проекции на которые разброс данных (среднеквадратичное отклонение от среднего значения) минимален d\. реализует поиск подпространств меньшей размерности, в ортогональной проекции на которые разброс данных (среднеквадратичное отклонение от среднего значения) максимален +-е. является методом линейного снижения размерности\[Ответ нейронной сети\] f\. является методом случайного снижения размерности +-g. называется РСА\[Ответ нейронной сети\] 100\. Популяционные алгоритмы позволяют решать задачи, в которых оптимизируемая функция неявно зависит от оптимизируемых параметров. Это такие задачи, как: (0 из 1) +-a. задача коммивояжера\[Ответ нейронной сети\] +-b. задача тонкой настройки параметров классификатора на основе SVM алгоритма\[Ответ нейронной сети\] +-c. задача поиска глобального экстремума функции Розенброка +-d. задача о рюкзаке\[Ответ нейронной сети\] e\. задача тонкой настройки параметров классификатора на основе алгоритма случайного леса 101\. Выберите правильные утверждения: (0 из 1) a\. для оценки сходимости популяционного алгоритма к глобальному экстремуму достаточно оценить усредненное значение оптимизируемой функции на основе лучших её значений по результатам большого числа прогонов алгоритма в течение большого числа поколений b\. для оценки сходимости популяционного алгоритма к глобальному экстремуму достаточно оценить лучшее значение оптимизируемой функции по результатам одного прогона алгоритма в течение большого числа поколений c\. для оценки сходимости популяционного алгоритма к глобальному экстремуму достаточно оценить лучшее значение оптимизируемой функции по результатам одного прогона алгоритма в течение большого числа поколений и сравнить его с известным значением глобального экстремума +-d. для оценки сходимости популяционного алгоритма к глобальному экстремуму достаточно оценить усредненное значение оптимизируемой функции на основе лучших её значений по результатам большого числа прогонов алгоритма в течение большого числа поколений и сравнить его с известным значением глобального экстремума (если оно известно), а также оценить дисперсию найденных лучших значений оптимизируемой функции\[Ответ нейронной сети\] e\. сравнение усредненных значений координат точек, соответствующих лучшим решениям в каждом из N прогонов популяционного алгоритма, с известными значениями координат точки глобального экстремума, а также -- анализ дисперсий координат найденных точек по результатам N прогонов популяционного алгоритма позволяют сделать выводы о сходимости популяционного алгоритма к глобальному экстремуму, если он единственный, иначе нужны дополнительные действия, например, по локализации диапазона поиска +-f. сравнение усредненных значений координат точек, соответствующих лучшим решениям в каждом из N прогонов популяционного алгоритма, с известными значениями координат точки глобального экстремума, а также -- анализ дисперсий координат найденных точек по результатам N прогонов популяционного алгоритма позволяют сделать выводы о сходимости популяционного алгоритма к глобальному экстремуму\[Ответ нейронной сети\] g\. для оценки сходимости популяционного алгоритма к глобальному экстремуму достаточно оценить усредненное значение оптимизируемой функции на основе лучших её значений по результатам большого числа прогонов алгоритма в течение большого числа поколений и сравнить его с известным значением глобального экстремума +-h. для оценки сходимости популяционного алгоритма к глобальному экстремуму достаточно оценить усредненное значение оптимизируемой функции на основе лучших её значений по результатам большого числа прогонов алгоритма в течение большого числа поколений и сравнить его с известным значением глобального экстремума, а также оценить дисперсию найденных лучших значений оптимизируемой функции\[Ответ нейронной сети\] 102\. При наличии пропусков значений признаков в паттернах данных: (0 из 1, по мнению чела из заметок возможно вариант e НЕ надо выбирать) +-a.можно удалить соответствующие записи о паттернах данных\[Ответ нейронной сети\] b.пропуски можно заполнить средним арифметическим значением по признаку, если данные категориальные c.можно применить функцию активации +-d.пропуски можно заполнить средним арифметическим значением по признаку, если данные числовые\[Ответ нейронной сети\] +-e.пропуски можно заполнить нулевым значением по признаку, если данные категориальные 103\. Число положительных решений классификатора: (0 из 1, чел выбрал ток 1 вариант) a\. TN+FP -b. TP+FP c\. TP+FN d\. модуль разности числа истинноположительных решений и числа ложноотрицательных решений e\. TN+FN f\. сумма числа истинноположительных решений и числа ложноотрицательных решений g\. сумма числа ложноположительных решений и числа истинноотрицательных решений Ну и хуета b выглядит правильным (вообще вариант **с. TP+FN или f.** тоже верным кажется, т.к. это положительные правильные + положительные выбранные как отрицательные классификатором) 104\. Верным является утверждение: (0 из 1) a\. поддержка любого набора элементов не может превышать максимальной поддержки любого из его подмножеств b\. SMOTE алгоритм синтезирует новые паттерны данных класса меньшинства между существующими паттернами данных класса большинства c\. синтез новых паттернов данных может привести к ещё большему перемешиванию паттернов разных классов d\. с ростом размера набора элементов поддержка уменьшается, либо остается такой же e\. SMOTE алгоритм синтезирует новые паттерны данных класса меньшинства между существующими паттернами данных класса меньшинства f\. любой k-элементный набор будет часто встречающимся тогда и только тогда, когда все его (k 1)-элементны подмножества будут часто встречающимися g\. с ростом размера набора элементов поддержка увеличивается, либо остается такой же 105\. Верным является утверждение: (0 из 1) +-a. поиск ассоциативных правил применяется для количественного описания взаимной связи между двумя и более событиями\[Ответ нейронной сети\] b\. ассоциативное правило состоит из двух наборов предметов, называемых условием и следствием, записываемых в виде X(r)Y +-c. ассоциативное правило состоит из двух наборов предметов, называемых условием и следствием, записываемых в виде X\"Y d\. поиск ассоциативных правил применяется для качественного описания взаимной связи между двумя и более событиями 106\. Выберите правильные утверждения: (0 из 1) +-a. хромосома в генетическом алгоритме кодируется только бинарными значениями +-b. операция мутации применяется только в генетическом алгоритме +-c. операция скрещивания выполняется только в генетическом алгоритме d\. хромосома в генетическом алгоритме может быть закодирована как бинарными, так и вещественными значениями e\. операция скрещивания выполняется только в алгоритме дифференциальной эволюции f\. генетический алгоритм алгоритмически сложнее, чем алгоритм дифференциальной эволюции g\. алгоритм дифференциальной эволюции алгоритмически сложнее, чем генетический алгоритм h\. операция скрещивания выполняется как в генетическом алгоритме, так и в алгоритме дифференциальной эволюции 107\. Индекс кластерного силуэта (0 из 1) a\. чем больше, тем лучше b\. рассчитывается с использованием среднего расстояния внутри кластера и среднего расстояния до ближайшего кластера для каждого паттерна данных c\. вычисляется на основе центроидов кластеров d\. применяется только для k-means-алгоритма e\. должен стремиться к нулю f\. позволяет оценить степень соответствия построенной кластерной структуры обучающим данным g\. минимизируют h\. позволяет оценить качество классификации В ответах a,b уверен, а так все 3 нейронка 108\. Вентили (0 из 1) a\. long short-time memory нейронных сетях b\. используются в GRU c\. используются для контроля потоков информации на входах и на выходах нейронных ячеек d\. используются в RNN e\. используются в long short-term memory нейронных сетях f\. RF g\. t-sne Хоть и нейронка, но всех вариантах уверен 109\. FPGrowth: (0 из 1) a\. реализует поиск кандидатов в частые предметные наборы b\. эффективен, если транзакции существенно различны c\. эффективен, если транзакции существенно похожи d\. реализует поиск частых предметных наборов Это из лекций 110\. В теории оптимизации: (0 из 1, чел выбрал ток 1 вариант, поэтому он неверный) a\. Coevolutionary Free Lunches подразумевают, что даже в случае, когда вместо одного алгоритма оптимизации используется несколько алгоритмов, эффективность которых различна на разных задачах, невозможно превзойти по эффективности алгоритм, специально разработанный для конкретной задачи b\. Coevolutionary Free Lunches усиливают ограничения No Free Lunches theorem c\. Coevolutionary Free Lunches ослабляют ограничения No Free Lunches theorem -d. Coevolutionary Free Lunches («коэволюционные бесплатные обеды») подразумевают, что в случае, когда вместо одного алгоритма оптимизации используется подход, координирующий переключение между несколькими алгоритмами в зависимости от того, какую эффективность они демонстрируют на каждой из задач, можно превзойти по эффективности даже алгоритм, специально разработанный для конкретной задачи e\. Coevolutionary Free Lunches («коэволюционные бесплатные завтраки») подразумевают, что в сл