Основатель BigData Team, ex-Amazon AWS, https://t.me/alexdral Запустил курсы на Coursera с аудиторией 100+ тыс. человек
Если прикрепление заработало - супер. В начале прошлого года такой опции не было.
В реальности, с точки зрения выдачи ИИН выглядит гораздо интереснее:
* получить ИИН онлайн невозможно (факт, указано в статье)
* получить ИИН можно в любом ЦОН (читай МФЦ), по заявлению
дальше нюанс:
* предлагают платную услугу за срочность оформления (1 рабочий день; по умолчанию, не срочная - 3 рабочих дня)
* если отказываетесь, то не факт, что получите даже за 3 рабочих дня (заявление могут потерять, или может произойти сбой)
* приходите второй раз, подаете заявление, получаете в течение 3-х рабочих дней
Если спешите и только проездом - я вас предупредил ;)
Если приехали путешествовать и есть время - примите процесс за норму и не беспокойтесь по пустякам. А путешествовать - точно есть куда:
https://t.me/alexdral/517
Удачи!
Да, почти все так. Немного дополню:
1. У всех граждан РФ (иностранцев) без ВНЖ - налоговая будет в Астане. Если не можете съездить туда сами, то нужна будет нотариальная доверенность на человека, кто за вас сможет подать и получить документы.
2. Нотариальную копию РВП у меня не спрашивали (только загран: 1-я страница + страницы с пересечением границы РК). Но правила имеют свойство меняться, поэтому если кто-то спросил копию РВП, возможно имеет смысл уже прикладывать ;)
3. Даже с ВНЖ подавать документы онлайн для получения налоговой справки не получится (требуют нотариальную копию не заграна, а ВНЖ, который все равно нужно приносить). Бонус ВНЖ - возможность подавать документы и получать справки от налоговой по адресу проживания.
получилось, но только при личной (или нотариальной) подаче документов в ЦОН в Астане.
В таком случае - обязательно напишу. Надеюсь на удобное окошко в ближайший месяц-два.
Есть, надо? ;)
Аргумент, спасибо за комментарий.
Добавил:
- в каждом разделе резюме
- комментарии по структуре в шапку
- доп. информацию по оформлению виз в Казахстане
сократим до перечисления:
1. список документов - см. перечисление в части 3
2. полезные ссылки в резюме
3. лайфхак - планировать сразу несколько поездок
Очень резонное замечание. Для таких ресурсов 90+% запросов приходят от роботов или по API, поэтому важно, что сервис предоставляет аналитику после очистки от роботов.
Для запросов "у меня болит нога, что делать?", есть надежда, что больше запросов от реальных людей, чем профессиональных маректологов, которые исследуют спрос и выдачу ;)
Несмотря на SEO-шное название книги, само содержание очень классное. Я за свою жизнь только две такие книги выделил, одну из которых (из-за названия) очень долго избегал, причем зря.
Данная книга пусть и не меняет взгляды на жизнь, но очень здорово расширяет арсенал инструментов для анализа ситуаций. Можно взять тот же wordstat и провести подобные (книге) исследования.
попробую в формате tl;dr
» Яндекс публикует движок, в котором очень хорошо продумали основу для еще большего масштабирования кластеров
чуть более развернуто
в мире Big Data (обработки больших массивов информации) можно отметить следующие события, которые очень сильно повлияли на развитие open source фреймворков, сообществ и изменили стандарты хранения и обработки данных:
* 2003-2004, статьи Google про распределенные файловые системы и MapReduce
* 2006, Yahoo! публикует open source реализацию Hadoop
* 2009, MapReduce и Hadoop доступны даже в облаках (AWS)
* 2010, Hive - (Big Data) SQL для работы с MapReduce
* 2012, появление YARN - новые пределы масштабируемости кластеров + возможности считать данные прилично быстрее в других парадигмах (например с помощью Spark, сильно больше нагружая оперативную память)
* 2014, появление raft - понятный и удобный алгоритм, чтобы договориться кто на кластере "главный" / "папа" / "первый"
* дальше все вширь и врозь, появляется много чего интересного, но мне сложно выделить что-либо ставшее стандартом хранения или обработки данных (форматы данных, SQL/NoSQL БД, стриминговые фреймворки, хотя в последней группе явно лидирует Kafka, которая появилась в 2011-м году)
* 2023, Яндекс публикует движок, в котором очень хорошо продумали основу для еще большего масштабирования кластеров (данных настолько много, что даже информацию о файлах в системе нужно хранить с приседаниями, то есть на разных компьютерах в распределенном режиме = шардирование).
Бонусом YT привносит новый стандарт для удобной работы с метаинформацией и распределенными таблицам данных (распределенные транзакции, распределенный ACID). Другие подходы на рынке уже были, но в статье я описываю сложности выбора стандарта в текущем Hadoop (см. ASF), а наработки Yandex могут сподвигнуть всю индустрию учесть их опыт.
Действительно может показаться так, здесь дополнил информации для контекста: https://vc.ru/opinions/640768-pochemu-mir-big-data-zapomnit-20-03-2023
Для тех, кто не в теме решил дополнить для контекста https://vc.ru/opinions/640768-pochemu-mir-big-data-zapomnit-20-03-2023
да, привет, почти 5 лет прошло ;)
резюмирую:
- до размера числа связей с нейронами у человека еще "далеко"
- отрастать и отмирать синапсы в нейронках тоже умеют (если еще вспомнить Dropout), но не так полносвязно и эффективно
- пока увеличение LLM хотя бы 10x не выглядит легкой (или даже технической) задачей
Поэтому пока сама нейронка кожанного человека выглядит на порядок круче.
+1 к тезису (немного перефразирую, возможно разовьешь идею дальше):
- что в нейронках (зачеркнуто) моделях ML в целом нужно смотреть не соответствие тому, как это делает (например) человек, а что результат получается как у человека.
перепутал тред (удалено)
Большое спасибо за статью, было интересно.
Disclaimer: я понимаю, что это не habr, но не могу не задать следующий вопрос.
> Думаю, если вам для каждого слова в разговоре пришлось бы решать по уравнению на полтора миллиарда параметров, то вы бы тоже стояли с примерно таким же лицом лица
Касательно GPT-2 (±1.5 млрд. параметров) и GPT-3 (175 млрд. параметров). Человеческий мозг содержит по разным оценкам 85-100 млрд. нейронов (wiki [1]). Это именно нейроны, каждый из них имеет порядка 10^3 - 10^4 связей (пример источника [2]). То есть параметров для обучения в человеческом организме получается на самом деле порядка 100 триллионов (или почти квадриллион). Что я упустил (в расчетах) или когда ожидать (по мнению авторов) увеличения модели в 100x для того, чтобы догнать человека разумного?
[1] https://ru.wikipedia.org/wiki/%D0%93%D0%BE%D0%BB%D0%BE%D0%B2%D0%BD%D0%BE%D0%B9_%D0%BC%D0%BE%D0%B7%D0%B3_%D1%87%D0%B5%D0%BB%D0%BE%D0%B2%D0%B5%D0%BA%D0%B0
[2] https://zdrav.expert/index.php/%D0%A1%D1%82%D0%B0%D1%82%D1%8C%D1%8F:%D0%9C%D0%BE%D0%B7%D0%B3_%D1%87%D0%B5%D0%BB%D0%BE%D0%B2%D0%B5%D0%BA%D0%B0
Если захочется копнуть/освежить, это в какой главе было?
1. Про Контраст - очень хороший кейс, описан в первой главе и пусть это будет интригой для тех, кто еще не прочитал.
2. Про ассоциации описано в обзоре Главы 5 (Благорасположение)
3. Про Избыток информации не помню - напомните, пожалуйста.
Судя по законам, все ровно так. Я читаю это как - люди должны приносить больше экономической пользы, поэтому:
(а) реальное трудоустройство в РК;
(б) открытие ТОО (читай ООО) и работу через него;
(в) возможно еще есть варианты, дополняйте.
+1