Pull to refresh
95
0
Михаил Сиротенко @intelligenceAgent

Пользователь

Send message
Хорошая вещь. Может кто знает как подключить к ней vim plugin?
Это конечно-же заблуждение. Никто не не списывает деньги со счета в момент взятия товара. Более того, в худшем случае чек может прийти через час после того как вы закончили покупки.
P.S. Я делал этот магазин.
Разработка конечно впечатляет. IBM молодцы. Но только нужно учитывать что они в железе реализовали полносвязные spiking сети, которые пока что не показали сколько нибудь впечатляющих результатов на серьёзных практических задачах (в отличие от, например, сверточных сетей). При этом единственные преимущества таких сетей это близкая аналогия к работе мозга и низкое потребление. Очень хорошо на эту тему высказался Yann LeCun: plus.google.com/app/basic/stream/z131jvahwnz2ilme022rxx5icvbpi1dzp04
Это проще чем звучит. Это название для тангенциальной функции у которой максимальная кривизна приходится на значение входа равное 1. А сами выходы могут принимать значения от -1,7 до 1,7: f(x) = 1.7159*tanh(2/3*x)
От сюда, раздел 4.4
Если это вопрос почему между Github и Bitbucket я выбрал последний, то ответ хорошо сформулирован здесь: eax.me/github-vs-bitbucket/
В первую очередь мне была очень важна возможность иметь закрытые репозитории.
Здесь был ответ.
Мозг как информационная система имеет очень разряженную (sparse) структуру. Это значит, что вовсе не обязательно отслеживать все миллиарды связей и нейронов, чтобы восстанавливать информацию приближенно. Кроме того, многие сложности, что вы перечислили скорее связаны с поддержанием жизнедеятельности этого организма, нежели с информацией как таковой. Базовый принцип работы мозга — конекционизм довольно универсален. Обработка информации в мозге — скорее стохастический процесс, нежели прецезионный. Именно по этому, я считаю, вполне возможно реконструировать мысли, даже без отслеживания всех этих тонкостей.
По поводу вашего следующего коментария.
Откуда такие данные что структура мозга у всех разная? (если можно ссылку)
Я вот наоборот знаю, что мозг очень пластичен и здоровые части мозга, в случае чего могут взять на себя функции поврежденных.
Прочитал заголовок — обрадовался, что у кого-то есть близкие к моим идеи, а потом разочарование. Ожидал анализ вероятностной природы микромира, связь физической энтропии с информационной энтропией, существующих физических парадоксов с точки зрения теории информации, гипотезы мультивселенных. А тут органы чувств и реляционная база данных.
Называйте как хотите. Это не поменяет сути вопроса: фрейм-рейт конверторы действительно конвертируют видео из 24 FPS в 240 FPS путем оценки и компенсации движения, и это применяется в телевизорах.
Вот статья бородатого 2008го года про такой FRC: http://news.thomasnet.com/fullstory/Frame-Rate-Converter-IC-supports-240-Hz-LCD-panels-819994

P.S. Цитата на счет плазмы наверное не самая удачная, т.к. для таких частот не существует FRC.
Ну почему бы просто не почитать статьи. Вот эту например: TV Refresh Rate Explained: 60Hz vs. 120Hz, 240Hz, and Beyond
Вот цитата оттуда:
...Some plasma HDTVs can even reach a 600Hz refresh rate...
Ну а если серьезно, то 60 Гц — это мало на сегодняшний день. И при такой частоте на хорошей диагонали и достаточно быстром движении артефакты видны невооруженным взглядом. 120 это уже что-то, 240 еще лучше.
Просто наберите в гугле что-нибудь типа 240 hz tv и нажмите первую ссылку.
Ну раз так, то мне пора увольняться :)
И заявку на патент тоже отозвать не забыть.
Это не только в дешевых телевизорах, это во всех, если выключен режим FRC (frame rate conversion). И, кстати, кратность тут особо не при чем. Просто если у вас видео имеет исходную частоту кадров 24 Гц, а телевизор показывает с частотой 240 Гц, то нужно либо просто вставить 10 копий одного и того же кадра (FRC выключен), либо попытаться проинтерполировать картинку от первого кадра до 10, что в общем случае довольно нетривиальная задача, требующая сложных алгоритмов (оценка векторов движения, межкадровая интерполяция). На маленьких диагоналях этого почти не заметно, т.к. от кадра к кадру физическая величина перемещения объектов практически не заметна, а на больших это начинает проявляться очень сильно.
1) Кадровая интерполяция. То, что в разной степени успешности умеют все современные ТВ от средней ценовой категории. Телевизор на лету анализирует 2 соседних кадра и дорисовывает еще один или даже 2 на свое усмотрение.

Ну вообще то дорисовываются все 10. Причем алгоритмы «дорисовки» становятся все умнее и умнее. По большому счет сейчас идет борьба над некоторыми неприятными эффектами, которые возникают в специфичных ситуациях — движение мелких объектов, резко меняющаяся освещенность, низко-текстурированные объекты, и т.п.
2) HFR (high frame rate). Съемка изначально в повышенном кадровом формате.

Все методы повышения кадровой частоты несут в себе один серьезный недостаток — потерю «киношности» изображения. Фильм выглядит неестественно, непривычно. Пока киномир стоит на распутье — снимать и смотреть в HFR или привычной частоте кадров. Какой путь будет выбран — никто не знает.
Лично я смотрю документальные фильмы и мультфильмы с кадровой интерполяцией, но отключаю ее для художественных фильмов.

Недавно читал статью про новый стандарт частоты съемки для фильмов — там был пример аватара в повышенной частоте. Очень понравилось, потом прочитал, что кому то это может не понравиться и все удивлялся, да кому вообще может нравится этот «киношный» эффект по сравнению с удивительно четким высококадровым видео? Кажется я нашел одного такого человека :-)
Ок. Я рад что вы со всем этим знакомы и меня понимаете. Но согласитесь, что всегда лучше когда аргументы сопровождаются ссылками. Тем более, что это могут читать остальные, кто не настолько в курсе.
Вы ж, вроде, практик, вы ж должны это все и так понимать.

:) В том то и дело, что мы сейчас заканчиваем разработку определенной технологии, которая по вашим словам не очень практична. А я с этим не соглашаюсь. К сожалению, деталей не могу раскрыть по понятным причинам.
Да и остальные (Google, Apple, Microsoft) уже коммерциализировали технологии DL. Это я к тому, что тезис о том что NN устарели и/или не практичны, а SVMы пришли им на смену был очень популярен в 2000-х. До того популярен, что многие уважаемые конференции отказывались публиковать работы, если там было упоминание про NN. Сейчас ситуация изменилась.
В том то и дело. С одной стороны SVM в случае с линейно разделяемыми классами дает гарантированный (математически) результат с оптимальной обобщающей способностью — за счет маргинализации.
Как только вы говорите, что можно поиграться с кернелом, подобрать более оптимальный, если правильно затюнить гиперпараметры, и т.п. вся эта красота пропадает. А без нее остается плоская (shallow) архитектура, которая хоть и может в теории аппроксимировать любую функцию, имея достаточное количество нелинейных кернелов, но вот это достаточное может оказаться неподъемным на практике.
Погуглите статьи на тему Shallow vs Deep. Вот например презентация: www.cs.toronto.edu/~amnih/cifar/talks/erhan_talk.pdf

По поводу цифр — если вы говорите про базу MNIST, то 6% ошибка — это очень много. Простой K-NN дает в 2 раза меньше — 3%, не говоря уже про методы deep learning, в которых борьба уже идет за сотые доли процента.

В заключение забавная история: в 90х Владимир Вапник (один из авторов SVM) и Larry Jackel (глава одного из подразделений AT&T), в котором они оба тогда работали, заключили пари, в котором Владимир утверждал, что к 2000 году никто в здравом уме не будет на практике использовать многослойные НС, а Ларри утверждал, что будет найдено математическое доказательство того, что многослойные НС имеют преймущество над SVM. Вот их пари в письменном виде: https://plus.google.com/u/0/100371833248286228099/posts/Y4vivM6Aen3
Проигравший должен был оплатить ужин в ресторане.
В результате оба проиграли и поделили оплату ужина на двоих :-)
Ну, в первую очередь, в таких вакансиях крайне приветствуется кандидатская степень. Так что неплохо было бы найти научного руководителя и защитить диссертацию, на тему связанную с ML. Можно и без степени, но тогда придется быть гораздо убедительнее в демонстрации своих навыков и опыта.
Если вы еще студент, то возможно у вас есть студенческие лаборатории, в которых занимаются задачами связанными с ML, как было в моем случае. Тогда просто нужно туда прийти, там есть научные руководители, которые подскажут тему исследования.
Если ничего такого нет, то можно самому выбрать интересную область, научиться читать и понимать научные статьи на эту тему, поднабравшись знаний попробовать решить одну из множеств задач, которых сейчас очень много в интернете.
Более конкретные навыки, которые требуются, указаны непосредственно в описании вакансии.
Ну раз вы в теме, то предлагаю попробовать подать резюме к нам в команду :): Senior Machine Learning Engineer
Это относится и ко всем остальным, кто это читает и тоже в теме. Я серьезно.

По существу:
"… бОльшим количеством измерений, в котором классы разделимы линейно..." — все верно.
Но. Для того, чтобы kernel trick был возможен нужно подобрать эти самые kernels, так чтобы в пространстве с большей размерностью классы действительно были разделимы. Для некоторых задач это может привести к нереализуемым решениям. Более того, эта проблема зачастую представляется как второстепенная, хотя она по сути первостепенная. Глубокие нейросети это и делают, они строят иерархичное преобразование, трансформирующее входные данные в пространство большей размерности, которое легче разделяется выходным классификатором, будь то еще один слой нейросети или тот же SVM.
Если переформулировать на примере, то попробуйте обучить SVM распознаванию визуальной информации (лица, цифры, что угодно) на сырых (пусть даже нормализованных) пикселях. Думаю, вы в курсе, что это плохая идея.
Да, они действительно имеют невыпуклый функционал ошибки, но это одновременно и недостаток и преимущество. Поскольку большинство реальных современных проблем имеют нелинейный характер. SVM — красивая парадигма, где есть выпуклость и все границы математически доказуемы. Но вся красота заканчивается, когда мы переходим от линейных ядер к нелинейным. В этом случае уже не понятно как именно выбирать эти ядра и сколько их понадобится.
У Яна ЛеКуна (Yann LeCun) на videolectures.net есть хорошая лекция на эту тему, называется «Кто боится невыпуклую оптимизацию». Советую посмотреть
Цитата со страницы Mahout:
«Our core algorithms for clustering, classification and batch based collaborative filtering are implemented on top of Apache Hadoop using the map/reduce paradigm.»

Очень интересно, учитывая что разработчики GraphLab утверждают что многие алгоритмы машинного обучения не достаточно эффективно «map-reducable».
Хотелось бы увидеть сравнение этих двух фреймворков например для задачи collaborative filtering.

Information

Rating
Does not participate
Location
New York, New York, США
Date of birth
Registered
Activity