Оптимізація роботи з потоками в Python: Практичний підхід до роботи з фоновими процесами

Оптимізація роботи з потоками в Python: Практичний підхід до роботи з фоновими процесами

7 Березня 2024 в 16:52 22

У цьому сценарії я запускаю asyncio завдання з назвою process_queued_data() у файлі init.py.
process_queued_data – це місце, де я обробляю дані та записую їх у файлові формати Parquet у кошику S3.

Моя проблема полягає в тому, що кожного разу, коли запущений process_queued_data, і я намагаюся відправити файл, він висить, доки завдання не завершиться. Як я можу уникнути цього поведінки і приймати дані у будь-який час, навіть коли process_queued_data працює?