23

Цель данной статьи заключается в обзоре основных принципов, технологий и применений параллельных и распределённых алгоритмов. Мы рассмотрим ключевые аспекты параллельных вычислений, такие как модели параллелизма, технологии MPI и CUDA, а также роль распределённых вычислений в контексте современных вычислительных систем. Особое внимание будет уделено примерам их применения в различных областях, от вычислительной биологии до обработки больших данных и искусственного интеллекта.

  • Ўқишлар сони 23
  • Нашр санаси 01-07-2024
  • Мақола тилиRus
  • Саҳифалар сони 60-63
Русский

Цель данной статьи заключается в обзоре основных принципов, технологий и применений параллельных и распределённых алгоритмов. Мы рассмотрим ключевые аспекты параллельных вычислений, такие как модели параллелизма, технологии MPI и CUDA, а также роль распределённых вычислений в контексте современных вычислительных систем. Особое внимание будет уделено примерам их применения в различных областях, от вычислительной биологии до обработки больших данных и искусственного интеллекта.

English

The purpose of this article is to review the basic principles, technologies, and applications of parallel and distributed algorithms. We will look at key aspects of parallel computing, such as concurrency models, MPI and CUDA technologies, and the role of distributed computing in the context of modern computing systems. Particular attention will be paid to examples of their application in various fields, from computational biology to big data processing and artificial intelligence

Муаллифнинг исми Лавозими Ташкилот номи
1 Kosimova .S. Магистрант Национального университета Узбекистана,
Ҳавола номи
1 1.Dean, J., & Ghemawat, S. (2004). MapReduce: Simplified data processing on large clusters. Communications of the ACM, 51(1), 107-113.2.Foster, I., & Kesselman, C. (1999). The Grid: Blueprint for a new computing infrastructure. Morgan Kaufmann.3.Ghosh, A., & Chatterjee, A. (Eds.). (2014). High performance computing: Paradigm and infrastructure. CRC Press.4.Quinn, M. J. (2004). Parallel programming in C with MPI and OpenMP. McGraw-Hill.5.Zaharia, M., Chowdhury, M., Franklin, M. J., Shenker, S., & Stoica, I. (2010). Spark: Cluster computing with working sets. HotCloud, 10(10-10), 95.
Кутилмоқда