10 трендов веб-разработки в 2023 году
2 года назад·10 мин. на чтение
В этой статье отметим новые тенденции в веб-разработке, которые, безусловно, будут вызывать интерес среди веб-разработчиков.
SSR фреймворки
Одностраничные приложения (SPA) и соответствующие им фреймворки (например, React.js, Vue.js, Svelte.js) прошли через более или менее громкие циклы и существуют уже много лет. Однако с появлением мета-фреймворков поверх этих решений мы можем наблюдать четкую тенденцию перехода приложений от рендеринга на стороне клиента (CSR) к рендерингу на стороне сервера (SSR). В наши дни SSR повсеместно используется при работе с JavaScript-фреймворками. Самый популярный SSR фреймворк под названием Next.js работает поверх React.js. Эндрю Кларк, core разработчик React, назвал его "настоящим релизом React 18" в 2022 году, потому что он поставляется со всеми встроенными возможностями (например, Suspense, streaming SSR), которые команда React предоставляет в качестве фундаментальных строительных блоков на нижнем уровне библиотеки. И Vercel (компания, стоящая за Next.js), и основная команда React.js работают в тесном сотрудничестве, обеспечивая отличный опыт для разработчиков.Виды рендеринга
В то время как в последнее десятилетие (2010 - 2020) доминировали одностраничные приложения (SPA) с их клиентским рендерингом (CSR), начиная с Knockout.js и Ember.js и заканчивая Angular.js, React.js и Vue.js, в последние годы наблюдается растущий интерес к рендерингу на стороне сервера (SSR) с SSR-фреймворками. Со стороны кажется, что цикл снова замыкается, потому что мы уже давно (с 2005 по 2010 год) используем SSR с внедрением JavaScript (например, jQuery, MooTools, Dojo.js) в многостраничных приложениях (MPA). Однако, если раньше использовилась Java (например, JSP) или позже Ruby on Rails, то в этот раз все по-другому, потому что вместо этого мы полагаемся на JavaScript. В течение нескольких лет Next.js был движущей силой этой тенденции, однако, другие SSR-фреймворки, такие как SvelteKit, догоняют. SSR довольно долго конкурировал со статической генерацией сайтов (SSG) за идеальную производительность, хотя оба паттерна служат совершенно разным целям. В то время как последний паттерн используется для статического контента (например, веб-сайты типа блога), первый используется для динамического контента (например, веб-приложения). Если SEO имеет значение, то и SSR, и SSG могут иметь смысл. Однако при необходимости создания динамичного контента или контента, ориентированного на пользователя, с аутентификацией, разработчики не могут выбрать SSG (один раз собрать перед развертыванием, поэтому статичен) и вынуждены выбирать между SSR (сборка по требованию для каждого запроса с индивидуальными данными на сервере) и CSR (выборка индивидуальных данных по требованию на клиенте).Serverless (бессерверные функции)
Технологии рендеринга, такие как SSR и SSG, очень коррелируют с тенденцией serverless at the edge, потому что обе они ориентированы на производительность с целью обеспечения бесшовного пользовательского опыта в браузере. По сути, стремление обслуживать пользователей быстрее веб-сайтов и веб-приложений вызвало интерес к serverless edge. Но давайте начнем с самого начала: Бессерверность, также известная как бессерверные функции, бессерверные вычисления (например, AWS Lambda) или облачные функции (например, Google/Firebase Cloud Functions), уже несколько лет является большой тенденцией в облачных вычислениях. Хотя бессерверность по-прежнему означает наличие работающего (удаленного) сервера, разработчику не нужно управлять сервером и связанными с ним задачами (например, масштабирование инфраструктуры по требованию). Вместо этого необходимо развернуть одну функцию как бессерверную функцию, о которой позаботится облачный провайдер.Возрождение баз данных
С появлением бессерверных функций (на границе) базы данных также переживают ренессанс. При использовании бессерверных функций разработчики быстро столкнулись с проблемой открытия слишком большого количества соединений с базой данных, поскольку существует не один сервер, который держит открытым одно соединение, а множество бессерверных функций с соединением 1:1 с базой данных. Решением этой проблемы стало объединение соединений, но об этом приходится заботиться либо самостоятельно, либо с помощью стороннего сервиса. Популярными соперниками в области бессерверных баз данных являются PlanetScale (MySql), Neon (PostgreSQL) и Xata (PostgreSQL), которые имеют множество функций, таких как разветвление баз данных, дифферинцирование схем и мощный поиск/аналитика/инсайты. Когда речь заходит о бессерверных системах, они предоставляют краевое кэширование или распределенную базу данных только для чтения, чтобы переместить данные ближе к пользователям с минимальной задержкой. Если сторонний сервис должен распространять не только вашу базу данных, но и ваше приложение, Fly.io упаковывает все в одну платформу. Что выводит нас за рамки только баз данных, где также происходит много движений. Railway, рассматриваемый как преемник Heroku, предлагает все для платформы как услуги (PaaS) для развертывания вашего технологического стека. Если вы хотите продвинуться на один шаг вверх по цепочке услуг в сторону Backends as a Service (BaaS), вы получите альтернативу Firebase с открытым исходным кодом - Supabase, которая поставляется с хостингом приложений/баз данных, аутентификацией и пограничными функциями.Среды выполнения JavaScript
Все началось с того, что Райан Дал объявил о Node.js на конференции в 2009 году. То, что начиналось как эксперимент, который отделил JavaScript от браузера и сделал его доступным на сервере, стало одним из самых больших факторов успеха JavaScript за последнее десятилетие. По сути, Райан Дал использовал JavaScript Engine под названием V8 (реализованный в Chrome) для Node.js без самого браузера. Таким образом, и браузер Chrome, и Node.js используют один и тот же JavaScript Engine, но имеют свои собственные JavaScript Runtimes (например, Browser APIs vs Node APIs) для взаимодействия с ним. Десятилетие спустя Райан Дал объявил Deno преемником Node с обещанием предоставить разработчикам более безопасную и быструю среду, которая поставляется с похожими API браузера, TypeScript и стандартной библиотекой из коробки. Однако Deno, который также работает на V8, является лишь одним из многих JavaScript Runtimes в наши дни.Монорепо
В прошлом монорепо использовалось в основном для крупномасштабных приложений, где один проект содержит более мелкие проекты в одном репозитории с контролем версий. Каждый из этих небольших проектов может быть чем угодно - от отдельного приложения (например, SPA, MPA) до пакета многократного использования (например, функции, компоненты, сервисы). Практика объединения проектов восходит к началу 2000 годов, когда это называлось общей кодовой базой. Однако в наши дни монорепозитории используются не только крупными приложениями, но и небольшими компаниями и проектами с открытым исходным кодом, которые, несомненно, извлекут из них пользу. Например, компания может иметь различные пакеты в монорепозитории, начиная от общих компонентов пользовательского интерфейса, общей системы проектирования (например, многоразовое совместное проектирование) и заканчивая широко используемыми полезными функциями для соответствующей области.CSS на утилитах
Разработчики либо любят, либо ненавидят его: Tailwind CSS является примером CSS с утилитами. В то время как одна сторона разработчиков ненавидит его за многословность в коде пользовательского интерфейса, другая сторона разработчиков любит его за его великолепный DX. Как разработчик, вы настраиваете его один раз в своем проекте и сразу же используете его готовый CSS в HTML. Этому разделению любви и ненависти к CSS, ориентированному на утилиты, может прийти конец с недавним ростом рендеринга на стороне сервера (SSR). В течение нескольких лет CSS-in-JS решения, такие как Styled Components (SC) и Emotion, были преобладающей силой для стилизации современных веб-приложений на основе компонентов. Однако, если производительность в мире SSR является одной из основных целей, CSS-in-JS имеет негативные последствия: увеличение размера пакета (SC - 12,7 кБ, Emotion - 7,9 кБ) и, что более важно, накладные расходы во время выполнения из-за сериализации CSS перед вставкой в DOM.TypeScript
Эволюция от JavaScript к TypeScript неостановима. В этой большой миграции веб-разработки безопасность типов E2E для фулстек приложений, безусловно, является важной тенденцией. Реализация этой концепции зависит от коммуникационного уровня (API), который необходим для передачи типизированных сущностей (например, тип User, тип BlogPost) от сервера к клиентскому приложению. Обычными подходами в веб-разработке для связи клиент-сервер являются REST и GraphQL. Оба этих языка можно использовать с OpenAPI для REST и GraphQL Code Generator для GraphQL для создания типизированного файла схемы для фронтенд приложения. Однако появилась новая восходящая звезда типобезопасных API под названием tRPC, которая может быть использована в качестве замены REST/GraphQL. Если вы работаете в монорепо TypeScript, где фронтенд и бэкенд совместно используют код, tRPC позволяет экспортировать все типы из бэкенда во фронтенд-приложение без промежуточной генерации типовой схемы. Впоследствии фронтенд может вызывать API бэкенда, просто используя типизированные функции, которые под капотом соединены HTTP для обеспечения фактического взаимодействия между клиентом и сервером. Общая тенденция, безусловно, направлена на использование большего количества таких типобезопасных решений для фулстек приложений, таких как tRPC, Zod, Prisma и TanStack Router, которые обеспечивают типобезопасность приложения.Инструменты сборки
В React несколько лет доминировал create-react-app (CRA). В свое время это была небольшая революция, поскольку начинающие разработчики получали готовый стартовый проект React без необходимости настраивать Webpack с React. Однако за последний год Webpack довольно быстро устарел. Vite - это новый инструмент в блоке, когда речь идет об одностраничных приложениях (SPA), поскольку он работает со всеми популярными фреймворками (например, React.js) для создания стартового проекта. Разработанный Эваном Ю, создателем Vue.js, он называет себя фронтенд-инструментом нового поколения. Под капотом он получает свою мощь от esbuild, который по сравнению с другими JavaScript бандлерами написан на Go, и поэтому собирает зависимости в 10-100 раз быстрее, чем его конкуренты (например, Webpack). В то время как экосистема Vite процветает благодаря таким дополнениям, как Vitest (альтернатива Jest для тестирования), совсем недавно появились другие конкуренты, такие как Turbopack от Vercel. Turbopack называют преемником Webpack, потому что его создателем является Тобиас Копперс, создатель Webpack. Поскольку Next.js все еще использует Webpack, а Turbopack разработан той же компанией, мы можем ожидать, что Next.js и Turbopack будут идеально сочетаться в будущем.Разработка с использованием искусственного интеллекта
Заменит ли ИИ в конечном итоге работу разработчика? На этот вопрос пока нет ответа, однако разработка с использованием ИИ стала реальностью в 2022 году. С выходом GitHub Copilot разработчики получили возможность работать в паре с ИИ-программистом в своей любимой IDE. Это так же просто, как написать код (или написать комментарий с указанием того, что вы хотите написать), и GitHub Copilot автоматически заполнит детали реализации в соответствии со своим пониманием. Но на этом все не заканчивается: ChatGPT от OpenAI - это более общая языковая модель, которая также заботится о задачах программирования. Хотя вы можете задавать ChatGPT вопросы в свободной форме, он также способен выполнять задачи по кодированию. Многие разработчики уже заметили, что используют ChatGPT в качестве замены StackOverflow. Во многих ситуациях ChatGPT давал полезные ответы (хотя и не всегда безупречные), когда использовался в качестве замены поисковой системы. Поскольку последнему приходится иметь дело с большим количеством SEO-спама (не только для контента, связанного с разработкой), ChatGPT рассматривается как жизнеспособная альтернатива на данный момент. Для того чтобы правильно формулировать и задавать запросы в системе ChatGPT для получения наиболее точных и информативных ответов, рекомендую прочитать Как написать запрос к ChatGPT. От промпта к результату.Ещё
Есть несколько заслуживающих внимания упоминаний, но которые не попали в список трендов: Tauri как альтернатива Electron для настольных приложений, реализованных на JavaScript/CSS/HTML, Playwright как альтернатива Cypress для E2E тестирования, Warp и Fig как терминалы нового поколения, CSS Container Queries как альтернатива CSS Media Queries для отзывчивого дизайна, и, наконец, htmx как обогащенный HTML для создания интерактивных пользовательских интерфейсов без JavaScript.Введение в проектирование систем (System Design): как стать Senior программистом
2 года назад·8 мин. на чтение
Цель проектирования системы — создать эффективную, надежную и простую в обслуживании систему, отвечающую потребностям пользователей и заинтересованных сторон.
Что такое проектирование систем (system design)?
Проектирование системы определяет архитектуру, компоненты, интерфейсы и данные для системы, удовлетворяющей заданным требованиям. Оно включает в себя идентификацию и определение функциональных и нефункциональных требований к системе, а также ограничений и компромиссов, которые должны быть сделаны в процессе разработки. Цель проектирования системы — создать эффективную, надежную и простую в обслуживании систему, отвечающую потребностям пользователей и заинтересованных сторон. Этот процесс обычно включает в себя комбинацию подходов «сверху вниз» и «снизу вверх» с упором на модульность, масштабируемость и возможность повторного использования. Надлежащий дизайн системы учитывает местоположение пользователей, используемые технологии и контент, совместно используемый в сети, в которой он находится.- Это помогает гарантировать, что конечный продукт соответствует потребностям пользователей и заинтересованных сторон. Четко определяя требования и ограничения системы, разработчики могут гарантировать, что программное обеспечение будет удобным в использовании, эффективным и действенным.
- Дизайн системы позволяет создавать масштабируемую и модульную архитектуру. Это упрощает добавление новых функций или внесение изменений в систему в будущем без нарушения существующей функциональности. Это также позволяет повторно использовать код и компоненты в разных проектах, экономя время и ресурсы.
- Дизайн системы играет решающую роль в “ремонтопригодности” программного обеспечения. Хорошо спроектированную систему легче понять, протестировать и отладить, что снижает вероятность появления новых ошибок и упрощает исправление существующих.
- Системный дизайн необходим для создания эффективного и высокопроизводительного программного обеспечения. Внимательно рассматривая требования к производительности и масштабируемости в процессе проектирования, разработчики могут гарантировать, что конечный продукт будет соответствовать требованиям пользователей и не будет создавать узких мест или сбоев при большой нагрузке.
Вопросы, которые необходимо задать перед проектированием программной системы
Важно отметить, что это всего лишь несколько примеров вопросов, которые инженер-программист должен учитывать при создании крупной системы. Вопросы будут зависеть от требований системы и домена, в котором она работает.- Каковы цели и требования системы?
- Каковы ожидаемые модели трафика и использования системы?
- Как система должна обрабатывать сбои и ошибки?
- Как система должна обеспечивать масштабируемость и производительность?
- Как система должна обеспечивать безопасность и контроль доступа?
- Как система должна обеспечивать хранение и поиск данных?
- Как система должна обеспечивать согласованность и целостность данных?
- Как система должна обрабатывать резервные копии и восстановление данных?
- Как система должна обрабатывать мониторинг и ведение логов?
- Как система должна обрабатывать обновления и обслуживание?
- Как система должна обеспечивать интеграцию с другими системами и службами?
- Как система должна обеспечивать соответствие нормативным требованиям и конфиденциальность данных?
- Как система должна обеспечивать аварийное восстановление и обеспечение непрерывности бизнеса?
- Как система должна обрабатывать пользовательский опыт и удобство использования?
Балансировщики нагрузки (Load Balancers)
Балансировщик нагрузки — это устройство или служба, распределяющая сетевой трафик или трафик приложений между несколькими серверами. Основная цель балансировщика нагрузки — повысить доступность и масштабируемость приложений за счет равномерного распределения рабочей нагрузки между несколькими серверами. Это гарантирует, что ни один сервер не станет узким местом и что система сможет обрабатывать большой объем трафика. Подумайте о попытке опорожнить большой резервуар для воды. Балансировщик нагрузки помогает опорожнить резервуар для воды, добавляя дополнительные отверстия в нижней части, чтобы увеличить поток воды, чтобы поступающая вода не вытекала из резервуара. Балансировщики нагрузки используют различные алгоритмы для определения того, как распределять трафик, например циклический (round-robin), когда запросы отправляются на каждый сервер по очереди, или метод наименьшего количества подключений, когда запросы отправляются на сервер с наименьшим числом активных подключений. Балансировщики нагрузки также могут отслеживать состояние каждого сервера, и если сервер становится недоступным, балансировщик нагрузки перенаправляет трафик на другие доступные серверы.Балансировщики нагрузки DNS
Балансировка нагрузки DNS — еще один популярный метод распределения сетевого трафика между несколькими серверами с использованием системы доменных имен (DNS). Он настраивает различные IP-адреса для одного доменного имени. Затем он использует DNS-сервер для распределения входящего трафика на один из IP-адресов на основе алгоритма балансировки нагрузки.Балансировка нагрузки по географическому принципу
Другим методом является балансировка нагрузки по географическому признаку, когда DNS-сервер направляет трафик на ближайший сервер в зависимости от местоположения клиента, выполняющего запрос. Это может повысить производительность и уменьшить задержку для пользователей, поскольку они направляются на ближайший к ним сервер.Кэширование (Caching)
Кэширование — это метод, используемый при проектировании системы для повышения производительности и масштабируемости системы путем сохранения часто используемых данных во временном хранилище, известном как кэш. Есть несколько преимуществ кэширования при проектировании системы:- Уменьшенная задержка: локальное кэширование данных может значительно сократить время, необходимое для доступа к данным, поскольку устраняет необходимость извлечения данных из удаленного местоположения. Это может привести к более быстрому времени отклика для конечного пользователя.
- Повышенная пропускная способность. Кэширование также может увеличить количество запросов, которые система может обрабатывать одновременно, поскольку оно уменьшает количество запросов, которые необходимо отправить на внутренний сервер. Это поможет предотвратить перегрузку системы в периоды высокой нагрузки.
- Снижение нагрузки на бэкэнд серверы. Кэширование также может снизить нагрузку на серверы за счет уменьшения количества запросов, которые им необходимо обрабатывать. Это может улучшить общую производительность и масштабируемость системы.
- Автономный доступ: локальное кэширование данных также может обеспечить автономный доступ к данным, даже если сервер недоступен. Это может быть особенно полезно для мобильных приложений или приложений IoT, где подключение гарантируется лишь иногда.
- Экономичность: кэширование может снизить затраты, связанные с масштабированием системы, за счет снижения нагрузки на серверы и потребности в дополнительном оборудовании или пропускной способности сети.
Кэширование в памяти (In memory caching)
Кэширование в памяти — это тип кэширования, при котором данные хранятся в основной памяти системы (ОЗУ), а не на диске. Это обеспечивает более быстрый доступ к кэшированным данным, поскольку к данным, хранящимся в памяти, можно получить доступ гораздо быстрее, чем к хранящимся на диске. Основным преимуществом кэширования в памяти является его высокая производительность. Поскольку данные хранятся в оперативной памяти, к ним можно получить доступ намного быстрее, чем к данным, хранящимся на диске. Это может значительно улучшить время отклика системы, особенно для часто используемых данных. Еще одним преимуществом кэширования в памяти является то, что оно не требует дисковых операций ввода-вывода, которые могут быть медленными и ресурсоемкими. Это может помочь снизить нагрузку на систему и повысить общую производительность. Кэширование в памяти можно реализовать с помощью различных инструментов и библиотек, таких как Memcached, Redis и Hazelcast. Эти инструменты предоставляют простой интерфейс для хранения и извлечения данных из памяти, а также их можно использовать для реализации распределенного кэширования на нескольких серверах. Стоит отметить, что кэширование в памяти имеет ограничения; в основном, размер доступной оперативной памяти для данных, которые могут быть сохранены в памяти, ограничен. Кроме того, данные, хранящиеся в памяти, являются энергозависимыми, что означает, что они будут потеряны в случае перезагрузки или сбоя системы.CDN
Сети доставки контента (CDN) — это распределенная сеть серверов, которые доставляют контент, такой как веб-страницы, изображения и видео, пользователям в зависимости от их географического положения. CDN могут помочь с кэшированием программного обеспечения, предоставляя способ кэширования и распространения контента ближе к конечным пользователям, уменьшая задержку и повышая производительность системы. Когда пользователь запрашивает контент с веб-сайта или приложения, запрос сначала отправляется на ближайший сервер CDN, «пограничный сервер» (edge server). Пограничный сервер проверяет свой кэш, чтобы узнать, хранится ли запрошенный контент локально. Если контент найден на складе, он сразу же доставляется пользователю. Если контент не найден в кэше, пограничный сервер извлекает его с исходного сервера и локально кэширует для будущих запросов. Кэшируя контент локально на пограничных серверах, CDN могут снизить нагрузку на исходный сервер и уменьшить задержку для конечного пользователя. Это может быть особенно полезно для веб-сайтов и приложений, которые обслуживают множество пользователей, или для пользователей, находящихся далеко от исходного сервера. Кроме того, CDN также могут помочь повысить безопасность и доступность системы, обеспечивая защиту от DDoS-атак и балансировку нагрузки.Базы данных
Проектирование схемы базы данных
Проектирование схемы базы данных — это создание схемы базы данных, которая определяет структуру данных и отношения между различными элементами данных. Сюда входит определение таблиц, полей, ключей, индексов и ограничений, составляющих базу данных. Хороший дизайн схемы базы данных необходим для обеспечения эффективности, гибкости и простоты обслуживания базы данных. Он должен быть основан на четком понимании требований и целей системы, и он должен быть масштабируемым, безопасным и надежным. Процесс проектирования схемы базы данных обычно включает несколько этапов, в том числе:- Определение сущностей и их отношений
- Определение атрибутов и типов данных для каждой сущности
- Определение ключей и ограничений для каждой таблицы
- Создание индексов для повышения производительности запросов
- Нормализация базы данных для устранения избыточности и улучшения целостности данных
- Тестирование и документирование схемы для простоты использования
Индексы базы данных
Индекс базы данных — это структура данных, которая повышает скорость операций извлечения данных из таблицы базы данных. Это позволяет системе управления базами данных быстро находить и извлекать определенные строки данных из таблицы. Индексы создаются для одного или нескольких столбцов таблицы, а данные в этих столбцах хранятся особым образом (например, в B-дереве или хэш-таблице) для оптимизации производительности поиска. Что касается дизайна системы, индексы могут значительно повысить производительность приложения, управляемого базой данных, за счет сокращения времени, необходимого для извлечения данных из таблицы. Это может быть особенно важно в больших и сложных системах, где необходимо извлечь много данных или где к данным часто обращается несколько пользователей. Использование индексов также может снизить нагрузку на сервер базы данных, так как серверу не нужно сканировать всю таблицу, чтобы найти нужные данные. Важно отметить, что создание индексов также может иметь негативные последствия, такие как увеличение дискового пространства и затрат на обновление, поэтому при создании индексов важно быть избирательным и стратегическим. Всегда рекомендуется тестировать производительность вашей системы с индексами и без них, отслеживать влияние индексов на вашу систему и вносить соответствующие коррективы.Разделение базы данных (шардирование, sharding)
Разделение базы данных — это метод, используемый для горизонтального разделения большой базы данных на более мелкие, более управляемые части, называемые шардами (shards). Каждый шард (сегмент) представляет собой отдельное независимое хранилище данных, содержащее подмножество данных из исходной базы данных. Данные в каждом шарде обычно организованы по некоторому ключу, например идентификатору пользователя, чтобы гарантировать, что все данные для конкретного пользователя находятся в одном шарде. Разделение может быть полезно в ряде различных сценариев, например, когда база данных стала слишком большой для эффективного управления одним сервером или когда большой объем запросов на чтение или запись вызывает проблемы с производительностью. Распределяя данные по нескольким серверам, шардирование может улучшить масштабируемость и производительность приложения, управляемого базой данных. Для реализации шардирования можно использовать несколько методов, например:- Шардирование на основе диапазона: данные разделяются на основе диапазона значений, например диапазона идентификаторов пользователей,
- Разделение на основе хэша: данные разделяются на основе хеш-функции, применяемой к значению ключа, например идентификатору пользователя,
- Разбиение на основе списка: данные разделяются на основе предопределенного списка значений, например страны или региона.