Pull to refresh
4
@Alex_MEread⁠-⁠only

Пользователь

Send message
> Но почему нельзя было сделать перегрузку для двух строк — для меня тоже загадка

1. Ну так если оператор будет принимать две владеющие строки, то он заберёт владение обоими. И если левый аргумент возращается как результат конкатенации, то правый аргумент был бы забран и дропнут.
2. При сложении строк нем нужен буфер большего размера. И тут либо выделить новый, либо расширить буфер одной из них (т.е. мутировать одну из них). И текущая семантика это показывает.

Продать по такому курсу не позволят. Но вот интересно было бы узнать, есть ли варианты вывода именно в валюте, без конвертации. Но насколько я понял, даже между росссийскими банками не работают долларовые переводы.

В феврале. И возможные 10к уже снял. Потери будут на разнице курса "когда купил" и "когда продал", и составят 20-30%.

Может, хабросообщество подскажет... А как реализовать несколько другую процедуру: вывести доллары с долларового счета, но... в подсанкционном банке, которому отрубили SWIFT? Только "доллары - рубли - доллары" с огромной потерей?

Хабр вне политики, а вот текст под спойлером - не очень

А можете объяснить наивному человеку, зачем Китаю вступать в войну с США (ну или наоборот)?

Всё, которые я видел, слишком похоже на сказки коммунистов или содержат слишком много выражений и оборотов, используемых российской пропагандой СМИ.

Следствие: никто не хочет hello-world программисто на Rust.

Вопрос: как стать программистом на Rust, если +- senior программист на C и C++, но не имеешь опыта работы в Rust, который требуется даже в middle вакансиях.

Прошу прощения за оффтоп, но пользуясь близостью темы, задам насущный вопрос. Прошу прощения, если вопрос глупый, я ненастоящий датасайентист.

  1. В transformers поддерживаются и tf, и pytorch. Но некоторые модели (тот же ruBERT) - чекпоинт pytorch, transformers их сам конвертирует в tf. Имеет ли это смысл, или лучше забить и попробовать всё делать на pytorch, если модель на pytorch? Особого глубокого смысла, почему я использовал tf/keras нет, просто так исторически сложилось.

  2. В transformers есть разные классы для BERT (и других моделей): чисто энкодер, для MLM, для классификации итп итд. Пример использования вашей модели c huggingface:

    model = AutoModelForMaskedLM.from_pretrained("yandex/RuLeanALBERT")

    Я же могу использовать класс не xxxForMaskedML, а другой, например, для классификации? Или лучше свою голову классификации прикрутить, ведь там непонятный черный ящик с непонятными слоями...

Наша модель хотя и имеет миллиарды параметров, но вполне способна вместиться в одну домашнюю GPU:

Так какой объем VRAM ей требуется? Хватит 12 Гб у 3060?

А для сравнения, сколько BERT требует VRAM? Я пробовал ruBERT от DeepPavlov в Colab. На TPU работает, на GPU не запустился, вроде как не хватило памяти. Использовал, правда, не hugging face, а keras-bert. К сожалению, последний перестал (видимо, версия tf в колабе поменялась) работать в колабе на TPU (судя по всему, какие-то неподдерживающиеся ТПУ операции), поэтому было бы интересно попробовать вашу модель.

Если сильно упороться в существование всяких непознанных форм и явлений, то можно.

Предположим, что существует неизвестное явление X, которое приводит к разбитию зеркала и к несчастьям...

Устррился из ~~Липецка~~ Волгограда в контору в МСК на зарплату чуть выше указанной.

Всё это касается глобальной ситуации. Если не повезло жить в РФ, то цены, видимо, будут только расти: параллельный (или еще какой) импорт + пошлины + наценка магазинов + налоги + на пиво + "а зачем цены снижать, потому что вы все равно больше нигде не купите".

Без "правила 34" про их маскота быстро забудут.

Чисто из любопытства, а где устройства по этим "серым" ценам можно приобрести? С доставкой. Ну, может быть, Apple и не интересует, а вот что-нибудь из ноутбуков других фирм... Разумеется, не с целью нарушения законодательства, а с целью сравнения с ценами в "официальных" магазинах (DNS, Citilink, М.Видео и прочих).

У меня дешманский Acer Extensa 2010 года до сих пор жив и использовался до недавнего времени.
Заголовок спойлера
В TOS, вроде, были деньги. Помню, Скотти что-то говорил про зарплату или что-то такое. А вот в TNG уже что-то вроде коммунизма. Возможно, это далее связано с появлением синтезаторов.
Ничего не могу сказать про D и Go, но время компиляции C++ быстрее растет от активного применения темплейтов, а не от количества функций.

Я не буду как-то оценивать эту новость. Вместо этого, я порассуждаю.

Я люблю Open Source и считаю, что отрытость вообще Open Source в частности - это крайне полезная, нужная и важная для, не побоюсь пафоса, для цивилизации. В основе всей IT-инфраструктуры лежат сотни и тысячи Open Source проектов, как созданных первоначально силами отдельных людей и/или сообщества, так и открытых закрытых продуктов крупных компаний.

Порог входа в Open Source где-то выше, где-то ниже, но, принципально, каждый может внести свой вклад. А сообщество в какой-то мере может сопротивляться желанию крупных компаний внести в тот или иной Open Source проект изменнеия, выгодные лишь им, что мы время от времени видим на примере ядра Linux.

Машинное обучение и прочий Data Science меняют расклад. Во главу угла становятся данные и вычислительные мощности, что концентрирует подобные технологии в руках крупных компаний, тех, кто может собирать все эти данные.

В зависимости от задачи и требований: оптимальный говнокод на питоне, на JS (все еще быстрее питона), на Lua, на C#, Java, Go, C++, на C, на Haskell ну и на Rust, в конце концов.

а всё потому что кому-то лениво писать код без generic'ов

Разве при мономорфизации объем кода не будет такой же, как если бы мы "нелениво" раскрыли все дженерики руками копипастой?

1
23 ...

Information

Rating
Does not participate
Location
Волгоградская обл., Россия
Registered
Activity