Последующих Питер онлайнмосква разделах



Всего 14 посетителей :: 8 зарегистрированных и 6 скрытых (основано на активности пользователей за последнюю 1 минуту)
Больше всего посетителей ( 112 ) здесь было 26 май 2017, 13:26

Всего сообщений: 504611 • Всего тем: 19652 • Всего пользователей: 205621 • Новый пользователь: ekaterinabaranova

Наши новые пользователи: ekaterinabaranova , lyubov.moiseeva , maria_petrova , Даниил К Коробов , AnnaSurina

Перед вами один из самых интересных учебников по машинному обучению – разделу искусственного интеллекта, изучающего методы построения моделей, способных обучаться, и алгоритмов для их построения. Автор воздал должное невероятному богатству предмета и не упустил из вида объединяющих принципов. Читатель с первых страниц погружается в машинное обучение в действии, но без не нужных на первых порах технических деталей. По мере изучения предмета тщательно подобранные примеры, сопровождаемые иллюстрациями, постепенно усложняются. В книге описан широкий круг логических, геометрических и статистических моделей, затрагиваются и такие находящиеся на переднем крае науки темы, как матричная факторизация и анализ РХП. Особое внимание уделено важнейшей роли признаков. Устоявшаяся терминология дополняется введением в рассмотрение новых полезных концепций. В конце каждой главы приводятся ссылки на дополнительную литературу с авторскими комментариями. Книга ясно написана и хорошо организована. Начав с основ, автор умело ведет читателя, знакомя его с полезными фактами и подробно описывая ряд методов машинного обучения. Приводится также псевдокод ключевых алгоритмов. Благодаря всему этому книга задает новый стандарт изучения такой сложной дисциплины как машинное обучение.

Смысл машинного обучения состоит в использовании нужных признаков для построения моделей, подходящих для решения правильно поставленных задач, – этой фразой, наглядно представленной на рис. 3, мы закончили пролог. По существу, признаки и определяют «язык», на котором описываются объекты предметной области, будь то почтовые сообщения или сложные органические молекулы. Имея представление в виде признаков, мы уже можем не возвращаться к самим объектам предметной области; именно поэтому признаки играют такую важную роль в машинном обучении. В разделе 1.3 мы присмотримся к ним поближе. – это абстрактное представление проблемы с участием объектов предметной области, которую мы хотим решить. Чаще всего требуется классифицировать объекты, то есть отнести каждый объект к одному из двух или более классов, но на страницах этой книги мы встретим и другие задачи. Многие задачи можно представить в виде отображения исходных данных на результаты. Такое отображение, или модель само является результатом алгоритма машинного обучения, примененного к обучающим данным. Как мы увидим в разделе 1.2, разнообразие моделей весьма широко.

Мы начнем эту главу с обсуждения задач – проблем, которые можно решить методами машинного обучения. Различных моделей очень много, но, как выясняется, все они предназначены для решения узкого круга задач и пользуются немногими типами признаков. Можно сказать, что модели обеспечивают разнообразие предмета машинного обучения, тогда как задачи и признаки придают ему единство.

В прологе было описано распознавание почтового спама. Это задача бинарной классификации – пожалуй, самая распространенная в машинном обучении, она
будет встречаться нам не раз. Очевидное обобщение – задачи классификации с числом классов больше двух. Так, может быть интересно распознавать различные виды хороших почтовых сообщений, например относящиеся к работе и личные. К этой задаче можно было бы подойти как к комбинации двух задач бинарной классификации: сначала отделить спам от неспама, а затем разбить хорошие сообщения на рабочие и личные. Однако при этом теряется потенциально полезная информация, поскольку некоторые спамные сообщения выглядят скорее как личные, нежели как рабочие. Поэтому зачастую выгодно рассматривать многоклассовую классификациюкак самостоятельную задачу машинного обучения. На первый взгляд, ничего особенного: ведь все равно придется обучить модель, чтобы связать класс с признаками. Но при такой, более общей постановке некоторые концепции нуждаются в переосмыслении: например, понятие решающей границы не столь очевидно, как в случае с двумя классами.

В этой и в следующей главе мы с высоты птичьего полета бросим взгляд на широкий круг задач, решаемых методами машинного обучения. Под словом «задача» здесь понимается любая деятельность, эффективность которой призвано улучшить машинное обучение (вспомните определение машинного обучения выше), например распознавание почтового спама. Поскольку речь пойдет о задаче классификации, нам потребуется обучить подходящий классификатор на обучающих данных. Существует много типов классификаторов: линейные, байесовский, метрические – и это еще далеко не полный перечень. Мы будем называть эти типы моделями, они станут предметом рассмотрения в главах 4-9. Классификация – лишь одна из обширного спектра задач, для решения которых можно обучить модель; в этой главе мы также кратко рассмотрим оценивание вероятности класса и ранжирование. А в следующей обсудим регрессию, кластеризацию и дескриптивное моделирование. Для каждой задачи мы расскажем, что это такое, какие существуют варианты, как можно оценивать качество ее решения и как она соотносится с другими задачами. Но прежде всего введем обозначения, которые будут использоваться в этой и последующих главах.

Машинное обучение – дисциплина, в такой же степени практическая, как и вычислительная. В некоторых случаях мы можем доказать, что конкретный алгоритм сходится к теоретически оптимальной модели при определенных предположениях, но все равно необходимы реальные данные, например для того, чтобы исследовать, в какой мере эти предположения удовлетворяются в рассматриваемой предметной области или достаточно ли велика скорость сходимости, чтобы алгоритм имел практическую ценность. Поэтому мы запускаем конкретные модели или алгоритмы обучения на одном или нескольких наборах данных, выполняем измерения и используем их результаты для ответа на интересующие нас вопросы. Вся эта деятельность называется экспериментами в машинном обучении.

Всего 14 посетителей :: 8 зарегистрированных и 6 скрытых (основано на активности пользователей за последнюю 1 минуту)
Больше всего посетителей ( 112 ) здесь было 26 май 2017, 13:26

Всего сообщений: 504611 • Всего тем: 19652 • Всего пользователей: 205621 • Новый пользователь: ekaterinabaranova

Наши новые пользователи: ekaterinabaranova , lyubov.moiseeva , maria_petrova , Даниил К Коробов , AnnaSurina

Перед вами один из самых интересных учебников по машинному обучению – разделу искусственного интеллекта, изучающего методы построения моделей, способных обучаться, и алгоритмов для их построения. Автор воздал должное невероятному богатству предмета и не упустил из вида объединяющих принципов. Читатель с первых страниц погружается в машинное обучение в действии, но без не нужных на первых порах технических деталей. По мере изучения предмета тщательно подобранные примеры, сопровождаемые иллюстрациями, постепенно усложняются. В книге описан широкий круг логических, геометрических и статистических моделей, затрагиваются и такие находящиеся на переднем крае науки темы, как матричная факторизация и анализ РХП. Особое внимание уделено важнейшей роли признаков. Устоявшаяся терминология дополняется введением в рассмотрение новых полезных концепций. В конце каждой главы приводятся ссылки на дополнительную литературу с авторскими комментариями. Книга ясно написана и хорошо организована. Начав с основ, автор умело ведет читателя, знакомя его с полезными фактами и подробно описывая ряд методов машинного обучения. Приводится также псевдокод ключевых алгоритмов. Благодаря всему этому книга задает новый стандарт изучения такой сложной дисциплины как машинное обучение.

Смысл машинного обучения состоит в использовании нужных признаков для построения моделей, подходящих для решения правильно поставленных задач, – этой фразой, наглядно представленной на рис. 3, мы закончили пролог. По существу, признаки и определяют «язык», на котором описываются объекты предметной области, будь то почтовые сообщения или сложные органические молекулы. Имея представление в виде признаков, мы уже можем не возвращаться к самим объектам предметной области; именно поэтому признаки играют такую важную роль в машинном обучении. В разделе 1.3 мы присмотримся к ним поближе. – это абстрактное представление проблемы с участием объектов предметной области, которую мы хотим решить. Чаще всего требуется классифицировать объекты, то есть отнести каждый объект к одному из двух или более классов, но на страницах этой книги мы встретим и другие задачи. Многие задачи можно представить в виде отображения исходных данных на результаты. Такое отображение, или модель само является результатом алгоритма машинного обучения, примененного к обучающим данным. Как мы увидим в разделе 1.2, разнообразие моделей весьма широко.

Мы начнем эту главу с обсуждения задач – проблем, которые можно решить методами машинного обучения. Различных моделей очень много, но, как выясняется, все они предназначены для решения узкого круга задач и пользуются немногими типами признаков. Можно сказать, что модели обеспечивают разнообразие предмета машинного обучения, тогда как задачи и признаки придают ему единство.

В прологе было описано распознавание почтового спама. Это задача бинарной классификации – пожалуй, самая распространенная в машинном обучении, она
будет встречаться нам не раз. Очевидное обобщение – задачи классификации с числом классов больше двух. Так, может быть интересно распознавать различные виды хороших почтовых сообщений, например относящиеся к работе и личные. К этой задаче можно было бы подойти как к комбинации двух задач бинарной классификации: сначала отделить спам от неспама, а затем разбить хорошие сообщения на рабочие и личные. Однако при этом теряется потенциально полезная информация, поскольку некоторые спамные сообщения выглядят скорее как личные, нежели как рабочие. Поэтому зачастую выгодно рассматривать многоклассовую классификациюкак самостоятельную задачу машинного обучения. На первый взгляд, ничего особенного: ведь все равно придется обучить модель, чтобы связать класс с признаками. Но при такой, более общей постановке некоторые концепции нуждаются в переосмыслении: например, понятие решающей границы не столь очевидно, как в случае с двумя классами.

В этой и в следующей главе мы с высоты птичьего полета бросим взгляд на широкий круг задач, решаемых методами машинного обучения. Под словом «задача» здесь понимается любая деятельность, эффективность которой призвано улучшить машинное обучение (вспомните определение машинного обучения выше), например распознавание почтового спама. Поскольку речь пойдет о задаче классификации, нам потребуется обучить подходящий классификатор на обучающих данных. Существует много типов классификаторов: линейные, байесовский, метрические – и это еще далеко не полный перечень. Мы будем называть эти типы моделями, они станут предметом рассмотрения в главах 4-9. Классификация – лишь одна из обширного спектра задач, для решения которых можно обучить модель; в этой главе мы также кратко рассмотрим оценивание вероятности класса и ранжирование. А в следующей обсудим регрессию, кластеризацию и дескриптивное моделирование. Для каждой задачи мы расскажем, что это такое, какие существуют варианты, как можно оценивать качество ее решения и как она соотносится с другими задачами. Но прежде всего введем обозначения, которые будут использоваться в этой и последующих главах.

Машинное обучение – дисциплина, в такой же степени практическая, как и вычислительная. В некоторых случаях мы можем доказать, что конкретный алгоритм сходится к теоретически оптимальной модели при определенных предположениях, но все равно необходимы реальные данные, например для того, чтобы исследовать, в какой мере эти предположения удовлетворяются в рассматриваемой предметной области или достаточно ли велика скорость сходимости, чтобы алгоритм имел практическую ценность. Поэтому мы запускаем конкретные модели или алгоритмы обучения на одном или нескольких наборах данных, выполняем измерения и используем их результаты для ответа на интересующие нас вопросы. Вся эта деятельность называется экспериментами в машинном обучении.

Я люблю бумажные книги. Купил у Питера томик страниц на 700, а там нет предметного указателя :-)

Всего 14 посетителей :: 8 зарегистрированных и 6 скрытых (основано на активности пользователей за последнюю 1 минуту)
Больше всего посетителей ( 112 ) здесь было 26 май 2017, 13:26

Всего сообщений: 504611 • Всего тем: 19652 • Всего пользователей: 205621 • Новый пользователь: ekaterinabaranova

Наши новые пользователи: ekaterinabaranova , lyubov.moiseeva , maria_petrova , Даниил К Коробов , AnnaSurina

Всего 14 посетителей :: 8 зарегистрированных и 6 скрытых (основано на активности пользователей за последнюю 1 минуту)
Больше всего посетителей ( 112 ) здесь было 26 май 2017, 13:26

Всего сообщений: 504611 • Всего тем: 19652 • Всего пользователей: 205621 • Новый пользователь: ekaterinabaranova

Наши новые пользователи: ekaterinabaranova , lyubov.moiseeva , maria_petrova , Даниил К Коробов , AnnaSurina

Перед вами один из самых интересных учебников по машинному обучению – разделу искусственного интеллекта, изучающего методы построения моделей, способных обучаться, и алгоритмов для их построения. Автор воздал должное невероятному богатству предмета и не упустил из вида объединяющих принципов. Читатель с первых страниц погружается в машинное обучение в действии, но без не нужных на первых порах технических деталей. По мере изучения предмета тщательно подобранные примеры, сопровождаемые иллюстрациями, постепенно усложняются. В книге описан широкий круг логических, геометрических и статистических моделей, затрагиваются и такие находящиеся на переднем крае науки темы, как матричная факторизация и анализ РХП. Особое внимание уделено важнейшей роли признаков. Устоявшаяся терминология дополняется введением в рассмотрение новых полезных концепций. В конце каждой главы приводятся ссылки на дополнительную литературу с авторскими комментариями. Книга ясно написана и хорошо организована. Начав с основ, автор умело ведет читателя, знакомя его с полезными фактами и подробно описывая ряд методов машинного обучения. Приводится также псевдокод ключевых алгоритмов. Благодаря всему этому книга задает новый стандарт изучения такой сложной дисциплины как машинное обучение.

Смысл машинного обучения состоит в использовании нужных признаков для построения моделей, подходящих для решения правильно поставленных задач, – этой фразой, наглядно представленной на рис. 3, мы закончили пролог. По существу, признаки и определяют «язык», на котором описываются объекты предметной области, будь то почтовые сообщения или сложные органические молекулы. Имея представление в виде признаков, мы уже можем не возвращаться к самим объектам предметной области; именно поэтому признаки играют такую важную роль в машинном обучении. В разделе 1.3 мы присмотримся к ним поближе. – это абстрактное представление проблемы с участием объектов предметной области, которую мы хотим решить. Чаще всего требуется классифицировать объекты, то есть отнести каждый объект к одному из двух или более классов, но на страницах этой книги мы встретим и другие задачи. Многие задачи можно представить в виде отображения исходных данных на результаты. Такое отображение, или модель само является результатом алгоритма машинного обучения, примененного к обучающим данным. Как мы увидим в разделе 1.2, разнообразие моделей весьма широко.

Мы начнем эту главу с обсуждения задач – проблем, которые можно решить методами машинного обучения. Различных моделей очень много, но, как выясняется, все они предназначены для решения узкого круга задач и пользуются немногими типами признаков. Можно сказать, что модели обеспечивают разнообразие предмета машинного обучения, тогда как задачи и признаки придают ему единство.

В прологе было описано распознавание почтового спама. Это задача бинарной классификации – пожалуй, самая распространенная в машинном обучении, она
будет встречаться нам не раз. Очевидное обобщение – задачи классификации с числом классов больше двух. Так, может быть интересно распознавать различные виды хороших почтовых сообщений, например относящиеся к работе и личные. К этой задаче можно было бы подойти как к комбинации двух задач бинарной классификации: сначала отделить спам от неспама, а затем разбить хорошие сообщения на рабочие и личные. Однако при этом теряется потенциально полезная информация, поскольку некоторые спамные сообщения выглядят скорее как личные, нежели как рабочие. Поэтому зачастую выгодно рассматривать многоклассовую классификациюкак самостоятельную задачу машинного обучения. На первый взгляд, ничего особенного: ведь все равно придется обучить модель, чтобы связать класс с признаками. Но при такой, более общей постановке некоторые концепции нуждаются в переосмыслении: например, понятие решающей границы не столь очевидно, как в случае с двумя классами.

В этой и в следующей главе мы с высоты птичьего полета бросим взгляд на широкий круг задач, решаемых методами машинного обучения. Под словом «задача» здесь понимается любая деятельность, эффективность которой призвано улучшить машинное обучение (вспомните определение машинного обучения выше), например распознавание почтового спама. Поскольку речь пойдет о задаче классификации, нам потребуется обучить подходящий классификатор на обучающих данных. Существует много типов классификаторов: линейные, байесовский, метрические – и это еще далеко не полный перечень. Мы будем называть эти типы моделями, они станут предметом рассмотрения в главах 4-9. Классификация – лишь одна из обширного спектра задач, для решения которых можно обучить модель; в этой главе мы также кратко рассмотрим оценивание вероятности класса и ранжирование. А в следующей обсудим регрессию, кластеризацию и дескриптивное моделирование. Для каждой задачи мы расскажем, что это такое, какие существуют варианты, как можно оценивать качество ее решения и как она соотносится с другими задачами. Но прежде всего введем обозначения, которые будут использоваться в этой и последующих главах.

Машинное обучение – дисциплина, в такой же степени практическая, как и вычислительная. В некоторых случаях мы можем доказать, что конкретный алгоритм сходится к теоретически оптимальной модели при определенных предположениях, но все равно необходимы реальные данные, например для того, чтобы исследовать, в какой мере эти предположения удовлетворяются в рассматриваемой предметной области или достаточно ли велика скорость сходимости, чтобы алгоритм имел практическую ценность. Поэтому мы запускаем конкретные модели или алгоритмы обучения на одном или нескольких наборах данных, выполняем измерения и используем их результаты для ответа на интересующие нас вопросы. Вся эта деятельность называется экспериментами в машинном обучении.

Я люблю бумажные книги. Купил у Питера томик страниц на 700, а там нет предметного указателя :-)

Питер Лёвенброй [2] Гриффин ( англ.   Peter Lowenbrau Griffin ) — один из основных персонажей мультипликационного сериала « Гриффины ». Его первое имя упоминается в эпизоде « Peter, Peter, Caviar Eater », и возможно является отсылкой к известной пивной марке или намёком на слово «low-brow», означающее: непритязательный, невзыскательный, неинтеллигентный.

Родился в Мексике (серия « Padre de Familia »). Согласно серии « Holy Crap », Питер был воспитан Фрэнсисом Гриффином и Телмой Гриффин . Ребёнком его крестили в Римско-католической вере , но, к великому огорчению отца, Питер не стал набожным человеком. В одной из серий упоминается, что Питер по знаку зодиака — Рак (хотя в другой серии упоминается, что Питер Телец ), то есть, он родился между 21 июня и 22 июля. В эпизоде « The Tan Aquatic with Steve Zissou » упоминается, что ему 43 года. Согласно эпизоду « FOX-y Lady » Питер является левшой.

В 18 серии 5 сезона (« Meet the Quagmires ») Смерть переносит Питера во времена его 18-летия, в 1984 год. Что даёт основания полагать, что Питер родился в 1966 году. Но, например, в конце 16 серии 8 сезона Питер играет в компьютерную игру Cod MW2 по сети под ником pgriffin69x. По умолчанию никнейм соответствует имени учётной записи, в свою очередь та наверняка совпадает с электронной почтой. Поэтому имеется предположение, что дата рождения Питера скорее 1969 год.

Хотя Питер обнаружил, что одним из его предков был чернокожий раб Нэйт Гриффин (работающий на семью Пьюдершмидтов), позже он узнаёт, что Фрэнсис Гриффин не был его настоящим отцом, то есть, более вероятно, что Питер на самом деле не имеет чернокожих предков. Его настоящим отцом является ирландский пьяница (« Peter’s Two Dads »). Также в одном из эпизодов гадалка с Ямайки сказала ему, что его предок Гриффин Питерсон основал Куахог .

В детстве был не слишком прилежным мальчиком, несколько раз оставался в школе на второй год. Однажды в компании попробовал ЛСД , из-за чего выпал из окна и чуть не разбился (из эпизода « Mr. Saturday Knight »).

Согласно сериям « Peter, Peter, Caviar Eater » и « Death Lives », в молодости Питер подрабатывал в отеле в Ньюпорте (носил полотенца ), там же он познакомился с Лоис Пьюдершмидт (своей будущей женой), дочерью Картера Пьюдершмидта, богатого промышленника. Картер не был в восторге от Питера, полагая, что его дочь стоит гораздо выше на социальной лестнице. Поэтому его подручные похищают Питера и выбрасывают в океан. Но Питер спасся и сумел с помощью друзей вернуться в Ньюпорт. Картер предложил Питеру сделку — миллион долларов в обмен на обещание держаться подальше от его дочери. Но Питер отказывается от денег, женится на Лоис и селится в городе Куахог.

Оборудование: телевизор 2шт , 1 шт. кровать 160 *2000, диван «трансформер», шкаф, зеркало, стол, стулья.

Мини кухня: холодильник, чайник, посуда, микроволновая печь. Набор белья, полотенца 70*1400, 50*90.

Ванна/ туалет в номере совмещенный. Утюг, гладильная доска, сейф у администратора бесплатно.

Платные дополнительные сервисы: полотенца, зубные наборы, бритвенные наборы, мыло, шампунь, тапочки, экскурсионное обслуживание, трансфер.

Оборудование: телевизор 2шт , 1 шт. кровать 160 *2000, диван «трансформер», шкаф, зеркало, стол, стулья.

Мини кухня: холодильник, чайник, посуда, микроволновая печь. Набор белья, полотенца 70*1400, 50*90.

Всего 14 посетителей :: 8 зарегистрированных и 6 скрытых (основано на активности пользователей за последнюю 1 минуту)
Больше всего посетителей ( 112 ) здесь было 26 май 2017, 13:26

Всего сообщений: 504611 • Всего тем: 19652 • Всего пользователей: 205621 • Новый пользователь: ekaterinabaranova

Наши новые пользователи: ekaterinabaranova , lyubov.moiseeva , maria_petrova , Даниил К Коробов , AnnaSurina

Перед вами один из самых интересных учебников по машинному обучению – разделу искусственного интеллекта, изучающего методы построения моделей, способных обучаться, и алгоритмов для их построения. Автор воздал должное невероятному богатству предмета и не упустил из вида объединяющих принципов. Читатель с первых страниц погружается в машинное обучение в действии, но без не нужных на первых порах технических деталей. По мере изучения предмета тщательно подобранные примеры, сопровождаемые иллюстрациями, постепенно усложняются. В книге описан широкий круг логических, геометрических и статистических моделей, затрагиваются и такие находящиеся на переднем крае науки темы, как матричная факторизация и анализ РХП. Особое внимание уделено важнейшей роли признаков. Устоявшаяся терминология дополняется введением в рассмотрение новых полезных концепций. В конце каждой главы приводятся ссылки на дополнительную литературу с авторскими комментариями. Книга ясно написана и хорошо организована. Начав с основ, автор умело ведет читателя, знакомя его с полезными фактами и подробно описывая ряд методов машинного обучения. Приводится также псевдокод ключевых алгоритмов. Благодаря всему этому книга задает новый стандарт изучения такой сложной дисциплины как машинное обучение.

Смысл машинного обучения состоит в использовании нужных признаков для построения моделей, подходящих для решения правильно поставленных задач, – этой фразой, наглядно представленной на рис. 3, мы закончили пролог. По существу, признаки и определяют «язык», на котором описываются объекты предметной области, будь то почтовые сообщения или сложные органические молекулы. Имея представление в виде признаков, мы уже можем не возвращаться к самим объектам предметной области; именно поэтому признаки играют такую важную роль в машинном обучении. В разделе 1.3 мы присмотримся к ним поближе. – это абстрактное представление проблемы с участием объектов предметной области, которую мы хотим решить. Чаще всего требуется классифицировать объекты, то есть отнести каждый объект к одному из двух или более классов, но на страницах этой книги мы встретим и другие задачи. Многие задачи можно представить в виде отображения исходных данных на результаты. Такое отображение, или модель само является результатом алгоритма машинного обучения, примененного к обучающим данным. Как мы увидим в разделе 1.2, разнообразие моделей весьма широко.

Мы начнем эту главу с обсуждения задач – проблем, которые можно решить методами машинного обучения. Различных моделей очень много, но, как выясняется, все они предназначены для решения узкого круга задач и пользуются немногими типами признаков. Можно сказать, что модели обеспечивают разнообразие предмета машинного обучения, тогда как задачи и признаки придают ему единство.

В прологе было описано распознавание почтового спама. Это задача бинарной классификации – пожалуй, самая распространенная в машинном обучении, она
будет встречаться нам не раз. Очевидное обобщение – задачи классификации с числом классов больше двух. Так, может быть интересно распознавать различные виды хороших почтовых сообщений, например относящиеся к работе и личные. К этой задаче можно было бы подойти как к комбинации двух задач бинарной классификации: сначала отделить спам от неспама, а затем разбить хорошие сообщения на рабочие и личные. Однако при этом теряется потенциально полезная информация, поскольку некоторые спамные сообщения выглядят скорее как личные, нежели как рабочие. Поэтому зачастую выгодно рассматривать многоклассовую классификациюкак самостоятельную задачу машинного обучения. На первый взгляд, ничего особенного: ведь все равно придется обучить модель, чтобы связать класс с признаками. Но при такой, более общей постановке некоторые концепции нуждаются в переосмыслении: например, понятие решающей границы не столь очевидно, как в случае с двумя классами.

В этой и в следующей главе мы с высоты птичьего полета бросим взгляд на широкий круг задач, решаемых методами машинного обучения. Под словом «задача» здесь понимается любая деятельность, эффективность которой призвано улучшить машинное обучение (вспомните определение машинного обучения выше), например распознавание почтового спама. Поскольку речь пойдет о задаче классификации, нам потребуется обучить подходящий классификатор на обучающих данных. Существует много типов классификаторов: линейные, байесовский, метрические – и это еще далеко не полный перечень. Мы будем называть эти типы моделями, они станут предметом рассмотрения в главах 4-9. Классификация – лишь одна из обширного спектра задач, для решения которых можно обучить модель; в этой главе мы также кратко рассмотрим оценивание вероятности класса и ранжирование. А в следующей обсудим регрессию, кластеризацию и дескриптивное моделирование. Для каждой задачи мы расскажем, что это такое, какие существуют варианты, как можно оценивать качество ее решения и как она соотносится с другими задачами. Но прежде всего введем обозначения, которые будут использоваться в этой и последующих главах.

Машинное обучение – дисциплина, в такой же степени практическая, как и вычислительная. В некоторых случаях мы можем доказать, что конкретный алгоритм сходится к теоретически оптимальной модели при определенных предположениях, но все равно необходимы реальные данные, например для того, чтобы исследовать, в какой мере эти предположения удовлетворяются в рассматриваемой предметной области или достаточно ли велика скорость сходимости, чтобы алгоритм имел практическую ценность. Поэтому мы запускаем конкретные модели или алгоритмы обучения на одном или нескольких наборах данных, выполняем измерения и используем их результаты для ответа на интересующие нас вопросы. Вся эта деятельность называется экспериментами в машинном обучении.

Я люблю бумажные книги. Купил у Питера томик страниц на 700, а там нет предметного указателя :-)

Питер Лёвенброй [2] Гриффин ( англ.   Peter Lowenbrau Griffin ) — один из основных персонажей мультипликационного сериала « Гриффины ». Его первое имя упоминается в эпизоде « Peter, Peter, Caviar Eater », и возможно является отсылкой к известной пивной марке или намёком на слово «low-brow», означающее: непритязательный, невзыскательный, неинтеллигентный.

Родился в Мексике (серия « Padre de Familia »). Согласно серии « Holy Crap », Питер был воспитан Фрэнсисом Гриффином и Телмой Гриффин . Ребёнком его крестили в Римско-католической вере , но, к великому огорчению отца, Питер не стал набожным человеком. В одной из серий упоминается, что Питер по знаку зодиака — Рак (хотя в другой серии упоминается, что Питер Телец ), то есть, он родился между 21 июня и 22 июля. В эпизоде « The Tan Aquatic with Steve Zissou » упоминается, что ему 43 года. Согласно эпизоду « FOX-y Lady » Питер является левшой.

В 18 серии 5 сезона (« Meet the Quagmires ») Смерть переносит Питера во времена его 18-летия, в 1984 год. Что даёт основания полагать, что Питер родился в 1966 году. Но, например, в конце 16 серии 8 сезона Питер играет в компьютерную игру Cod MW2 по сети под ником pgriffin69x. По умолчанию никнейм соответствует имени учётной записи, в свою очередь та наверняка совпадает с электронной почтой. Поэтому имеется предположение, что дата рождения Питера скорее 1969 год.

Хотя Питер обнаружил, что одним из его предков был чернокожий раб Нэйт Гриффин (работающий на семью Пьюдершмидтов), позже он узнаёт, что Фрэнсис Гриффин не был его настоящим отцом, то есть, более вероятно, что Питер на самом деле не имеет чернокожих предков. Его настоящим отцом является ирландский пьяница (« Peter’s Two Dads »). Также в одном из эпизодов гадалка с Ямайки сказала ему, что его предок Гриффин Питерсон основал Куахог .

В детстве был не слишком прилежным мальчиком, несколько раз оставался в школе на второй год. Однажды в компании попробовал ЛСД , из-за чего выпал из окна и чуть не разбился (из эпизода « Mr. Saturday Knight »).

Согласно сериям « Peter, Peter, Caviar Eater » и « Death Lives », в молодости Питер подрабатывал в отеле в Ньюпорте (носил полотенца ), там же он познакомился с Лоис Пьюдершмидт (своей будущей женой), дочерью Картера Пьюдершмидта, богатого промышленника. Картер не был в восторге от Питера, полагая, что его дочь стоит гораздо выше на социальной лестнице. Поэтому его подручные похищают Питера и выбрасывают в океан. Но Питер спасся и сумел с помощью друзей вернуться в Ньюпорт. Картер предложил Питеру сделку — миллион долларов в обмен на обещание держаться подальше от его дочери. Но Питер отказывается от денег, женится на Лоис и селится в городе Куахог.

2utenka.ru