Публикации по теме 'linear-regression'
Алгоритм градиентного спуска объяснен на примере линейной регрессии
Алгоритм градиентного спуска - это алгоритм оптимизации, который использует для поиска оптимального значения параметров, минимизирующего функцию потерь. Например, алгоритм итеративно корректирует такие параметры, как веса и смещения нейронной сети, чтобы найти оптимальные параметры, которые минимизируют функцию потерь. Прежде чем мы перейдем к алгоритму, нам нужно объяснить частные производные и градиент.
Частные производные и градиент
Частная производная функции многих переменных..
«Повлияет ли выброс на линейную регрессию?
Это вопрос для большинства новичков, которые попадают в науку о данных. мы постараемся получить ответ на этот вопрос.
что такое выброс?
Давным-давно, я сидел на лекции по математике, лектор углублялся, я чувствовал «почему я здесь сижу»? так как я был очень беден в числах. Мне приходилось задавать много вопросов после каждой темы, потом я понял, что я был исключением в том классе , где все остальные были в состоянии понять классы.
Итак, какое влияние я оказал как..
Линейная регрессия с Python
Детали данных
«Сред. Area House Age’: Средний возраст домов в одном городе
«Сред. Площадь Количество комнат: среднее количество комнат в домах в одном городе
«Сред. Площадь Количество спален: среднее количество спален в домах в одном городе
«Население области»: Население городского дома находится в
«Цена»: цена, по которой дом был продан.
«Адрес»: Адрес дома
Ознакомьтесь с библиотеками данных и импорта
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt..
Объяснение линейной регрессии
Основы науки о данных
Объяснение линейной регрессии
Узнайте, как работает этот алгоритм машинного обучения с учителем
Линейная регрессия , вероятно, самый известный алгоритм машинного обучения. Часто это первый алгоритм, с которым приходится сталкиваться при изучении или практике науки о данных из-за его простоты, скорости и интерпретируемости. Если вы хотите улучшить свое понимание линейной регрессии, в этом посте показана математика, лежащая в основе алгоритма, с акцентом на..
Полное руководство по линейной регрессии: освоение R-квадрата, скорректированного R-квадрата, AIC, BIC и…
Обязательно будет регрессия к среднему — Чарли Мангер
Линейная регрессия — это широко используемый статистический метод для моделирования связи между зависимой переменной и одной или несколькими независимыми переменными. В этой статье мы рассмотрим концепции AIC, BIC, R-квадрата, скорректированного R-квадрата и Cp Маллоу , а также ковариации и корреляции на примере Python. Мы также покажем выходные данные этих показателей и объясним их интерпретацию.
Пример линейной регрессии в..
Градиентный спуск для линейной регрессии с несколькими переменными и регуляризацией L2
Введение
В этой работе ожидается, что мы реализуем алгоритм градиентного спуска для линейной регрессии и линейной регрессии с методом регуляризации L2 в наборе данных Boston Housing. Этот набор данных содержит информацию, собранную Службой переписи населения США о жилье в районе Бостона, штат Массачусетс. Первый — построить несколько моделей линейной регрессии с разной скоростью обучения и выбрать лучшую из них. Во втором разделе представлены эти модели с помощью метода регуляризации..
Байесовская линейная регрессия с Бэмби
Используйте байесовский вывод, чтобы получить распределение ваших прогнозов
Мотивация
При подгонке линии регрессии к выборочным данным вы можете получить линию регрессии, как показано ниже:
Вместо того, чтобы получать одну линию регрессии, было бы неплохо, если бы вы могли вместо этого получить распределение прогнозов?
Вот когда на помощь приходит байесовская линейная регрессия. В этой статье вы узнаете, как построить байесовскую линейную регрессию в Python.
Что такое..