LINUX.ORG.RU

Открытая трибуна для пиара открытого ПО на Highload++ (Москва, ноябрь)

 , ,


1

2

В ноябре проходит ежегодная конференция разработчиков высоконагруженных проектов Highload++. В этом году организаторы конференции решили сделать отдельную секцию по рекламе открытого программного обеспечения.

Если вы пилите какой-то свой продукт и не понимаете, как сделать так, чтобы про него знал кто-то ещё, кроме ваших товарищей, то имеет смысл податься туда, возможно, получите полезный совет.

На саму конференцию регулярно приходит техническое руководство крупнейших российских Интернет-компаний, так что польза от этой активности существует.

>>> Трибуна для опенсорса на Highload++ (Москва, ноябрь 2016)

★★★★★

Проверено: Shaman007 ()
Последнее исправление: DeadEye (всего исправлений: 1)
Ответ на: комментарий от deep-purple

во-первых, rtmp нельзя положить в один кольцевой буфер. Гениальные индусы из эппла хорошенько потанцевав придумали протокол который требует обязательного уникального трафика для каждого клиента.

Во-вторых, есть прочие хитрости типа клиент поставил на паузу и начинаем сбрасывать кадры, а потом продолжим с того места, где остановился.

Так что здесь очень быстро возникает точка обработки трафика под каждого клиента.

max_lapshin ★★★★★
() автор топика
Ответ на: комментарий от deep-purple

pthread на клиента — это в принципе не обсуждается. Такое работать не может и все обсуждения на эту тему уже закончились. Да, линукс может прожевать 2000 тредов, но это всё годится только в тех случаях, когда клиенты вообще друг от друга не зависят и очень, очень ресурсоёмки.

Сегодня для обслуживания сетевого трафика только тред-пул с epoll. Сокеты раскидываются по ядрам и на эти ядрах в poll-реакторах обрабатываются.

Вопрос о том, что в простом случае, когда надо, например MPEG-TS мультикаст распихать по куче HTTP клиентов, заводится один большой циклический буфер и все сокеты берут из него.

В случае с тем же RTMP надо заводить аллокацию памяти на каждого клиента, менеджить это всё и т.п.

max_lapshin ★★★★★
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.