> Но почему нельзя было сделать перегрузку для двух строк — для меня тоже загадка
1. Ну так если оператор будет принимать две владеющие строки, то он заберёт владение обоими. И если левый аргумент возращается как результат конкатенации, то правый аргумент был бы забран и дропнут.
2. При сложении строк нем нужен буфер большего размера. И тут либо выделить новый, либо расширить буфер одной из них (т.е. мутировать одну из них). И текущая семантика это показывает.
Продать по такому курсу не позволят. Но вот интересно было бы узнать, есть ли варианты вывода именно в валюте, без конвертации. Но насколько я понял, даже между росссийскими банками не работают долларовые переводы.
Может, хабросообщество подскажет... А как реализовать несколько другую процедуру: вывести доллары с долларового счета, но... в подсанкционном банке, которому отрубили SWIFT? Только "доллары - рубли - доллары" с огромной потерей?
Следствие: никто не хочет hello-world программисто на Rust.
Вопрос: как стать программистом на Rust, если +- senior программист на C и C++, но не имеешь опыта работы в Rust, который требуется даже в middle вакансиях.
Прошу прощения за оффтоп, но пользуясь близостью темы, задам насущный вопрос. Прошу прощения, если вопрос глупый, я ненастоящий датасайентист.
В transformers поддерживаются и tf, и pytorch. Но некоторые модели (тот же ruBERT) - чекпоинт pytorch, transformers их сам конвертирует в tf. Имеет ли это смысл, или лучше забить и попробовать всё делать на pytorch, если модель на pytorch? Особого глубокого смысла, почему я использовал tf/keras нет, просто так исторически сложилось.
В transformers есть разные классы для BERT (и других моделей): чисто энкодер, для MLM, для классификации итп итд. Пример использования вашей модели c huggingface:
model = AutoModelForMaskedLM.from_pretrained("yandex/RuLeanALBERT")
Я же могу использовать класс не xxxForMaskedML, а другой, например, для классификации? Или лучше свою голову классификации прикрутить, ведь там непонятный черный ящик с непонятными слоями...
Наша модель хотя и имеет миллиарды параметров, но вполне способна вместиться в одну домашнюю GPU:
Так какой объем VRAM ей требуется? Хватит 12 Гб у 3060?
А для сравнения, сколько BERT требует VRAM? Я пробовал ruBERT от DeepPavlov в Colab. На TPU работает, на GPU не запустился, вроде как не хватило памяти. Использовал, правда, не hugging face, а keras-bert. К сожалению, последний перестал (видимо, версия tf в колабе поменялась) работать в колабе на TPU (судя по всему, какие-то неподдерживающиеся ТПУ операции), поэтому было бы интересно попробовать вашу модель.
Всё это касается глобальной ситуации. Если не повезло жить в РФ, то цены, видимо, будут только расти: параллельный (или еще какой) импорт + пошлины + наценка магазинов + налоги + на пиво + "а зачем цены снижать, потому что вы все равно больше нигде не купите".
Чисто из любопытства, а где устройства по этим "серым" ценам можно приобрести? С доставкой. Ну, может быть, Apple и не интересует, а вот что-нибудь из ноутбуков других фирм... Разумеется, не с целью нарушения законодательства, а с целью сравнения с ценами в "официальных" магазинах (DNS, Citilink, М.Видео и прочих).
В TOS, вроде, были деньги. Помню, Скотти что-то говорил про зарплату или что-то такое. А вот в TNG уже что-то вроде коммунизма. Возможно, это далее связано с появлением синтезаторов.
Я не буду как-то оценивать эту новость. Вместо этого, я порассуждаю.
Я люблю Open Source и считаю, что отрытость вообще Open Source в частности - это крайне полезная, нужная и важная для, не побоюсь пафоса, для цивилизации. В основе всей IT-инфраструктуры лежат сотни и тысячи Open Source проектов, как созданных первоначально силами отдельных людей и/или сообщества, так и открытых закрытых продуктов крупных компаний.
Порог входа в Open Source где-то выше, где-то ниже, но, принципально, каждый может внести свой вклад. А сообщество в какой-то мере может сопротивляться желанию крупных компаний внести в тот или иной Open Source проект изменнеия, выгодные лишь им, что мы время от времени видим на примере ядра Linux.
Машинное обучение и прочий Data Science меняют расклад. Во главу угла становятся данные и вычислительные мощности, что концентрирует подобные технологии в руках крупных компаний, тех, кто может собирать все эти данные.
В зависимости от задачи и требований: оптимальный говнокод на питоне, на JS (все еще быстрее питона), на Lua, на C#, Java, Go, C++, на C, на Haskell ну и на Rust, в конце концов.
а всё потому что кому-то лениво писать код без generic'ов
Разве при мономорфизации объем кода не будет такой же, как если бы мы "нелениво" раскрыли все дженерики руками копипастой?
1. Ну так если оператор будет принимать две владеющие строки, то он заберёт владение обоими. И если левый аргумент возращается как результат конкатенации, то правый аргумент был бы забран и дропнут.
2. При сложении строк нем нужен буфер большего размера. И тут либо выделить новый, либо расширить буфер одной из них (т.е. мутировать одну из них). И текущая семантика это показывает.
https://habr.com/ru/post/438414/
Продать по такому курсу не позволят. Но вот интересно было бы узнать, есть ли варианты вывода именно в валюте, без конвертации. Но насколько я понял, даже между росссийскими банками не работают долларовые переводы.
В феврале. И возможные 10к уже снял. Потери будут на разнице курса "когда купил" и "когда продал", и составят 20-30%.
Может, хабросообщество подскажет... А как реализовать несколько другую процедуру: вывести доллары с долларового счета, но... в подсанкционном банке, которому отрубили SWIFT? Только "доллары - рубли - доллары" с огромной потерей?
Хабр вне политики, а вот текст под спойлером - не очень
А можете объяснить наивному человеку, зачем Китаю вступать в войну с США (ну или наоборот)?
Всё, которые я видел, слишком похоже на сказки коммунистов или содержат слишком много выражений и оборотов, используемых российской
пропагандойСМИ.Следствие: никто не хочет hello-world программисто на Rust.
Вопрос: как стать программистом на Rust, если +- senior программист на C и C++, но не имеешь опыта работы в Rust, который требуется даже в middle вакансиях.
Прошу прощения за оффтоп, но пользуясь близостью темы, задам насущный вопрос. Прошу прощения, если вопрос глупый, я ненастоящий датасайентист.
В transformers поддерживаются и tf, и pytorch. Но некоторые модели (тот же ruBERT) - чекпоинт pytorch, transformers их сам конвертирует в tf. Имеет ли это смысл, или лучше забить и попробовать всё делать на pytorch, если модель на pytorch? Особого глубокого смысла, почему я использовал tf/keras нет, просто так исторически сложилось.
В transformers есть разные классы для BERT (и других моделей): чисто энкодер, для MLM, для классификации итп итд. Пример использования вашей модели c huggingface:
model = AutoModelForMaskedLM.from_pretrained("yandex/RuLeanALBERT")
Я же могу использовать класс не
xxxForMaskedML
, а другой, например, для классификации? Или лучше свою голову классификации прикрутить, ведь там непонятный черный ящик с непонятными слоями...Так какой объем VRAM ей требуется? Хватит 12 Гб у 3060?
А для сравнения, сколько BERT требует VRAM? Я пробовал ruBERT от DeepPavlov в Colab. На TPU работает, на GPU не запустился, вроде как не хватило памяти. Использовал, правда, не hugging face, а keras-bert. К сожалению, последний перестал (видимо, версия tf в колабе поменялась) работать в колабе на TPU (судя по всему, какие-то неподдерживающиеся ТПУ операции), поэтому было бы интересно попробовать вашу модель.
Если сильно упороться в существование всяких непознанных форм и явлений, то можно.
Предположим, что существует неизвестное явление X, которое приводит к разбитию зеркала и к несчастьям...
Устррился из ~~Липецка~~ Волгограда в контору в МСК на зарплату чуть выше указанной.
Generative adversarial network + Reinforcement learning?
Всё это касается глобальной ситуации. Если не повезло жить в РФ, то цены, видимо, будут только расти: параллельный (или еще какой) импорт + пошлины + наценка магазинов + налоги + на пиво + "а зачем цены снижать, потому что вы все равно больше нигде не купите".
Без "правила 34" про их маскота быстро забудут.
Чисто из любопытства, а где устройства по этим "серым" ценам можно приобрести? С доставкой. Ну, может быть, Apple и не интересует, а вот что-нибудь из ноутбуков других фирм... Разумеется, не с целью нарушения законодательства, а с целью сравнения с ценами в "официальных" магазинах (DNS, Citilink, М.Видео и прочих).
Я не буду как-то оценивать эту новость. Вместо этого, я порассуждаю.
Я люблю Open Source и считаю, что отрытость вообще Open Source в частности - это крайне полезная, нужная и важная для, не побоюсь пафоса, для цивилизации. В основе всей IT-инфраструктуры лежат сотни и тысячи Open Source проектов, как созданных первоначально силами отдельных людей и/или сообщества, так и открытых закрытых продуктов крупных компаний.
Порог входа в Open Source где-то выше, где-то ниже, но, принципально, каждый может внести свой вклад. А сообщество в какой-то мере может сопротивляться желанию крупных компаний внести в тот или иной Open Source проект изменнеия, выгодные лишь им, что мы время от времени видим на примере ядра Linux.
Машинное обучение и прочий Data Science меняют расклад. Во главу угла становятся данные и вычислительные мощности, что концентрирует подобные технологии в руках крупных компаний, тех, кто может собирать все эти данные.
В зависимости от задачи и требований: оптимальный говнокод на питоне, на JS (все еще быстрее питона), на Lua, на C#, Java, Go, C++, на C, на Haskell ну и на Rust, в конце концов.
Разве при мономорфизации объем кода не будет такой же, как если бы мы "нелениво" раскрыли все дженерики руками копипастой?