Apache Кафка схожий на двигун Scribe Facebook (якщо ви знайомі з ним) і може бути використаний для обробки потоків активності.
Це працює, дозволяючи розробникам зберегти один або більше потоків активності (або канали).
Ці канали можуть бути організовані за темами, а потім транслювати (опубліковано) всім підписаним споживачів.
Частини Кафки, які керують і опублікувати канали називаються виробників.
Кафка в основному середній шар між виробниками і споживачами, складна система, яка може обробляти будь-який вид трафіку і запитів на будь-якому типі шкали.
Це тому, що Кафка був побудований для обробки розподілених архітектур сервера, що дозволяє розробникам масштабувати свої публікації / підсистем на хмарних сервісів.
Що нового в даний випуск :.
- новий виробник Java для простоти реалізації і підвищення продуктивності
- Видалити тему підтримки.
- на теми конфігурації перевагу консистенції за наявністю.
- підтримка Scala 2.11 і відмови від підтримки Scala 2.8.
- стиснення LZ4.
Що нового у версії 0.8.2.1:
- A~~HEAD=pobj новим продюсером Java для простоти реалізації і розширення продуктивність.
- Видалити тему підтримки.
- на теми конфігурації перевагу консистенції за наявністю.
- підтримка Scala 2.11 і відмови від підтримки Scala 2.8.
- стиснення LZ4.
Що нового у версії 0.8.0-beta1 :.
- Виправлені існуючі Perf інструменти
- Провід існуючих виробником і споживачем, щоб використовувати нову структуру ZK даних.
- Створити / видалити шлях ZK для теми в інструмент адміністратора.
- Реалізована вбудований контроллер.
Що нового у версії 0.7.1:
- Уникайте дубльований повідомлення у споживчого перерозподіл даних
- Підтримка налаштовується передачі / прийому розмір буфера сокета в сервері
- JAVAAPI ZookeeperConsumerConnectorTest дублює багато випробувань у версії сходи
- Зробити # споживчого перерозподіл даних повторює настроюється
- SyncProducer повинні увійти хост і порт, якщо не вдається підключитися.
- Зниження дублювання повідомлень в день, його Кафка споживача для незжатих темам
- Уникайте входу StackTrace безпосередньо
- Зробити час відстрочки у споживчого перерозподіл даних налаштовується
- Поліпшення log4j Appender використовувати kafka.producer.Producer і підтримки zk.connect | варіанти broker.list
- виділити Кафку дзеркального в автономному додатку
- виробник Hadoop повинні використовувати програмне забезпечення балансування навантаження
Що нового у версії 0.7.0:
- Кафка тепер підтримує стиснення на рівні блоків. Див стиснення вікі для докладної інформації. В даний час тільки GZIP є вечеряти перенесений.
- Журнал утримання тепер можуть залежати від простору (log.retention.size).
Що нового у версії 0.6:
- Виправлені помилки:
- SimpleProducer втратити повідомлення при сокет отримує IO виключення
- Якщо виробник відправляє інвалідом MessageSet брокер буде додавати його, розбещує журнал
- ByteBufferMessageSet реєструє помилку про розмір вибірки
- Shutdown Кафка, коли є будь-який диск IO помилка
- розмножте сервер все виключення споживача
- Close () в SimpleConsumer повинні бути синхронізовані
- Споживчі Код документація
- Поліпшення EventHandler в AsyncProducer
- Заснований зоопарку виробник не видаляє мертву брокера зі свого списку, служачи запит виробляють
- Споживчі журнали помилок у недалеко
- Покращення:
- тест Очищення JUnit
- MessageSet не реалізує Java ітеріруемий
- За замовчуванням кодер для Кафки log4 Appender
- Явно перерахувати всі теми,
- Refactor громадського API в Java і Scala API
- Поліпшення API документацію для всіх громадських API,
- Зніміть Java FileMessageSet API
- Тест Одиниця невдачу на деяких машинах Linux
- Створити підпроектів SBT для перфорація, приклади вно, що в даний час використовують Ant
- Додати JMX для динамічного зміни рівня log4j на сервері Кафки
- Оновлення до зоопарку 3.3.3
- JAVAAPI MessageSet не потрібно реалізувати WriteTo роз'єм
- Нові можливості:
- Новий виробник API
Коментар не знайдено