- О специалисте
- Услуги и цены
- Отзывы 2
Влад
Был в сети больше недели назадСпециалист пока не предоставил копию паспорта.
Имя, фамилия и фото в анкете не проверены.
О себе
В поиске работы/стажировки на удаленке
Могу разобраться в любом стеке, фреймворке, бизнес-задаче
~ 2х лет опыта в коде на питоне.
Стек навыков: Python, SQL, Docker, Django ORM, Hadoop, Hive, Pyspark, Databricks, ETL, Apache Nifi, Apache Kafka, Apache Airflow, Git, Bash, PowerBI, Стеки мониторинга, алерты, ML и DL модели (sklearn, TF, Keras, Torch)
1) Python
— Писать читаемый и оптимизированный код, документацию
— Применять оптимальные структуры и типы данных
— Asyncio
— Ускорение вычислений через тензоры / pyarrow / pyspark
— автоматизация получения, обработки данных, выгрузка в базы данных и т. д. (ETL)
— ML
— PyQt + ООП создание GUI, дизайн виджетов
— написание DAG’ов, скриптов, парсинг, симуляция действий в браузере
— Профилирование кода на затраты ресурсов
— и многое другое
2) SQL
— Написание запросов easy/medium сложности (согласно leetcode)
— Оптимизация запросов
— Нормализация формы БД
3) sk-learn/TF+keras/Pytorch
Изображения/видео:
Перенос обучения
Извлечение признаков, уменьшение их размерности
Улучшение обучаемости нейросети (аугментация, fine tuning и тд)
Обратный поиск (поиск похожих фото)
Ускорение поиска сходств изображений
Преобразование изображений/видео через CV
Визуализация работы нейросети
Текст:
Токенизация, стемминг, удаление стоп слов, регулярные выражения, векторизация, эмбеддинги, перенос обучения с ruBert
4) Databricks+pyspark препроцессинг, трансформация данных; SQL запросы
5) Табличные процессоры (Excel, Google таблицы и подобные)
6) PowerBI
7) Docker
— CLI, docker-compose, docker swarm, Dockerfile, маппинг портов, маппинг томов, сети, изменение и настройка существующего compose/swarm кластера, troubleshooting проблем с запуском
8) Фреймворки для работы с данными:
— Apache Kafka: в качестве streaming платформы для передачи данных
— Apache Nifi: в качестве платформы для обработки потоков данных в realtime ETL-пайплайнами и отправки выходных данных в системы получатели
— Apache Airflow: в качестве workflow менеджера
— Hadoop DFS + Hive
9) DevOps:
— Bash
— Системы контроля версий Git, Apache registry
— Мониторинг: стек мониторинга Grafana + Loki + Prometheus + (Node, Alert, Pushgateway, Promtail); стек для мониторинга логов ELK/EFK
10) Linux/Windows
11) Промпты/запросы в ChatGPT
Опыт
Услуги и цены
по договорённости |
Пять с плюсом