• 01 May 2017 (38 messages)
  • https://t.me/clickhouse_ru
    @AntonKosyanenko #13365 12:40 AM, 01 May 2017
    Joined.
  • @AS12389 #13366 07:40 AM, 01 May 2017
    Джентельмены, подскажие по запросу.
    Уже все инторнеты перечитал
    Есть такая табличка:
    ++++++++++++++++++++++++++++++++++++
    + F01-23 GigabitEthernet0/2/18 +
    + F01-32 GigabitEthernet1/2/4 +
    + F01-32 GigabitEthernet1/3/1 +
    + F01-32 GigabitEthernet1/3/1 +
    + F01-10 GigabitEthernet1/2/4 +
    + F01-37 GigabitEthernet0/2/17 +
    ++++++++++++++++++++++++++++++++++++

    Хочется

    name int count
    +++++++++++++++++++++++++++++++++++++++
    + F01-23 + GigabitEthernet0/2/18 + 1 +
    + F01-32 + GigabitEthernet1/2/4 + 1 +
    + F01-32 + GigabitEthernet1/3/1 + 2 +
    + F01-10 + GigabitEthernet1/2/4 + 1 +
    + F01-37 + GigabitEthernet0/2/17 + 1 +
    +++++++++++++++++++++++++++++++++++++++
  • @AS12389 #13367 07:41 AM, 01 May 2017
    т.е. объединить повторябщиеся
  • @AS12389 #13368 07:41 AM, 01 May 2017
    Сама табличка сделана уже продукт INNER JOIN
  • @DenysLamanov #13369 07:46 AM, 01 May 2017
    Group by
  • @AS12389 #13370 07:49 AM, 01 May 2017
    #1055 - Expression #1 of SELECT list is not in GROUP BY clause and contains nonaggregated column 'CE.a.tid' which is not functionally dependent on columns in GROUP BY clause; this is incompatible with sql_mode=only_full_group_by
  • @AS12389 #13371 07:50 AM, 01 May 2017
    Этот результат получился с 2я иннерджойнами
  • @AS12389 #13372 08:34 AM, 01 May 2017
    Победил
  • @lexa_work #13373 08:37 AM, 01 May 2017
    несколько вопросов по tabix
  • @lexa_work #13374 08:38 AM, 01 May 2017
    где-то видел упоминание, что результат можно экспортнуть в CSV из интерфейса (пока не нашел)
  • @lexa_work #13375 08:38 AM, 01 May 2017
    и еще
  • @lexa_work #13376 08:39 AM, 01 May 2017
    все сохранения поисков и прочее персистенси где сохранятеся? Как я понял это полная статика?
  • https://t.me/clickhouse_ru
    Правой кнопкой по результату.
  • https://t.me/clickhouse_ru
    @rheinx #13378 09:41 AM, 01 May 2017
    А как победить повеление tabix, когда после перезагрузки страницы он отказывается работать с ch, хоть и показывает что залогинен?
  • https://t.me/clickhouse_ru
    Посмотреть ошибки в дебаг консоли браузера для начала
  • https://t.me/clickhouse_ru
    @rheinx #13380 09:55 AM, 01 May 2017
    чет я сразу и не сообразил. После перезагрузки страницы падает на запросе:

    vendor-6613b9e910.js:45 POST http://%clickhouse_url%/?add_http_cors_header=1&log_queries=1 net::ERR_CONNECTION_REFUSED

    ломится на 80 порт.
  • https://t.me/clickhouse_ru
    @rheinx #13381 09:56 AM, 01 May 2017
    Ошибка моя, но поведение интересное. Если в настройках коннекта не указать порт, то он все равно подключится, но после рестарта будет пытаться слать запросы на 80 порт. Если порт в настройках коннекта указать, то все ок даже после рестарта.
  • https://t.me/clickhouse_ru
    @nikepan #13382 10:33 AM, 01 May 2017
    Всем привет!
    Запилил сборщик запросов к кликхаусу. Собирает мелкие запросы, собирает все это в большие и отправляет на разные инстансы.
    Кому актуально, потестите пожалуйста и дайте обратную связь.
    Интерфейс стандартный, поэтому можно стандартные адаптеры на него направлять.
    https://github.com/nikepan/clickhouse-bulk
    GitHub - nikepan/clickhouse-bulk: Collects many small inserts to ClickHouse and send in big inserts

    Collects many small inserts to ClickHouse and send in big inserts - GitHub - nikepan/clickhouse-bulk: Collects many small inserts to ClickHouse and send in big inserts

  • https://t.me/clickhouse_ru
    @nikepan #13383 10:37 AM, 01 May 2017
    clickhouse-bulk-linux_64.tgz

    Shared with Dropbox

  • https://t.me/clickhouse_ru
    @pavel_odintsov #13384 12:25 PM, 01 May 2017
    О, тру! Батчер!
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13385 12:25 PM, 01 May 2017
    А в каком формате принимает? Формат кликхауса съест?
  • @iamigor #13386 12:32 PM, 01 May 2017
    > Tested with VALUES, TabSeparated formats
  • https://t.me/clickhouse_ru
    @Civiloid #13387 12:36 PM, 01 May 2017
    Ок, подождем поддержки rowbinary или native
  • https://t.me/clickhouse_ru
    @alexey_laptev #13388 03:09 PM, 01 May 2017
    добрый день

    поставил через докер на маке, clickhouse-client подключается, но tabix - на тотже ip вроде как подключается, но ничего не показывает, как минимум список дб

    в консоли у него Failed to load resource: net::ERR_CONNECTION_TIMED_OUT

    Где проблема?
  • https://t.me/clickhouse_ru
    @alexey_laptev #13389 03:10 PM, 01 May 2017
    Сейчас задача gui подключить
  • @iamigor ↶ Reply to #13388 #13390 03:56 PM, 01 May 2017
    убедитесь, что 8123 порт проброшен
  • @iamigor #13391 03:57 PM, 01 May 2017
    в kitematic можно настроить, например
    или при вызове docker run
  • https://t.me/clickhouse_ru
    @alexey_laptev #13392 04:02 PM, 01 May 2017
    сделал вируталку на aws, поставил все за пару минут )

    открыл порты 8123, 9000, 9009

    но по внешнему ip не подлючается, нет никаких доп настроек в кликхаусе?
  • @iamigor #13393 04:08 PM, 01 May 2017
    есть, по умолчанию локалхост только слушает
  • @iamigor #13394 04:09 PM, 01 May 2017
    в config.xml настраивается
  • https://t.me/clickhouse_ru
    @alexey_laptev #13395 04:22 PM, 01 May 2017
    надо было <listen_host>::</listen_host> поставить
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #13388 #13396 04:26 PM, 01 May 2017
    На маке докер в виртуалке. Точно на нужный ip коннектишься?
  • https://t.me/clickhouse_ru
    @alexey_laptev #13397 04:27 PM, 01 May 2017
    ошибка гдето там, но забил уже, развернул на aws за 15 мин, все работает
  • https://t.me/clickhouse_ru
    @alexey_laptev #13398 04:28 PM, 01 May 2017
    в докере много лишних телодвижений
  • над результатом справа кнопка типа логотип екселя, если мультизапросы - будет кнопка под каждый результат
  • пока все храниться в localStore браузера, история запросов в основном локально, но может "пытаться" хранить на сервере CH

    Каждый запрос из tabix отправляется с признаком queryLog и с пометкой /*tabix_id...*/ далее интерфейс делает select querylog like ...
  • Если вы собираете под себя - можете попробовать ветку b1 - до текущего коммита 7159bcad7cb015b586eed82b03a7a36eb4a6978a

    поправил hotkey + другие фичи и фиксы в мастере будет +- через недельку
    новые фичи:
    - процесс лист кластера, а не одной машины
    - метрики график - не рисовал нулевые значения
    - hotkey checkbox - enable left
    - линейные графики научились группироваться по строковым колонкам
    - minor fixes
  • https://t.me/clickhouse_ru
    Спасибо!
  • 02 May 2017 (60 messages)
  • https://t.me/clickhouse_ru
    @kshvakov ↶ Reply to #13290 #13403 05:38 AM, 02 May 2017
    есть multicorn для sqlalchemy, возможно работает
    http://multicorn.org/foreign-data-wrappers/#sqlalchemy-foreign-data-wrapper
    https://github.com/cloudflare/sqlalchemy-clickhouse
    GitHub - cloudflare/sqlalchemy-clickhouse

    Contribute to cloudflare/sqlalchemy-clickhouse development by creating an account on GitHub.

  • https://t.me/clickhouse_ru
    @vladenisov #13404 06:21 AM, 02 May 2017
    привет. столкнулся с проблемой: на локальных и distributed таблицах удалил три колонки, изменил запрос на импорт, но ругается на то, что этой колонки не существует:
    Exception: Code: 10, e.displayText() = DB::Exception: Not found column utm_source in block. There are only columns: ..., e.what() = DB::Exception
  • https://t.me/clickhouse_ru
    @vladenisov #13405 06:22 AM, 02 May 2017
    при этом вставляю с указанием колонок:
    INSERT INTO clickstream (columns) FORMAT TSV
    , и там utm_source нет
  • https://t.me/clickhouse_ru
    @vladenisov #13406 06:24 AM, 02 May 2017
    можете подсказать, что с этим делать? проверил через desc table – таких колонок нет, пересоздал distributed-таблицу (импортирую всё через нее) – не помогло
  • https://t.me/clickhouse_ru
    @rgen3 ↶ Reply to #13406 #13407 06:32 AM, 02 May 2017
    Не уверен, но скорее всего дело в кэше зукипера - у меня подобная проблема была, когда после пересоздания таблицы не создавались записи эквивалентные тем, которые были в таблице до пересоздания.
    Решил проблему переименованием пути до хранилища в зукипере
  • не наблюдаю такой кнопки. Вижу только булавку "Pinned".
  • ui.tabix.io ?
  • https://t.me/clickhouse_ru
  • нет делал локальную инсталляцию
  • @lexa_work #13412 07:13 AM, 02 May 2017
    сильно отличаются версии между хостед и доступным на git релизами?
  • @lexa_work #13413 07:16 AM, 02 May 2017
    да на ui.tabix.io все это есть
  • @lexa_work #13414 07:17 AM, 02 May 2017
    а какая там версия?
  • сильно, я забываю собирать на github релизы, да и смысла в них не вижу т.к весь стейбл код лежит в мастере и скомпилин в папке build, а разработка идет в отдельных ветках.

    Для самосборки используйте просто master ветку, ui.tabix.io это как раз автовыкладка master ветки
  • @lexa_work #13416 07:20 AM, 02 May 2017
    спасибо
  • @lexa_work #13417 07:20 AM, 02 May 2017
    так и будем поступать
  • @konstov #13418 12:02 PM, 02 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    Извините, что поднимаю. Проблема выглядит серьезной, если я сам где-то не натупил. Костылить со сменой пути в зукипере не хочется.
  • @sr_maks1 #13420 01:01 PM, 02 May 2017
    Подскажите можно ли в конфиге прописать max bytes external group by? Если можно - то per user или per server?
  • https://t.me/clickhouse_ru
    @rheinx #13421 01:15 PM, 02 May 2017
    Это общее ограничение по памяти.
  • https://t.me/clickhouse_ru
    @rheinx #13422 01:16 PM, 02 May 2017
    "При использовании max_bytes_before_external_group_by рекомендуется выставить max_memory_usage примерно в два раза больше. Это следует сделать, потому что агрегация выполняется в две стадии: чтение и формирование промежуточных данных (1) и слияние промежуточных данных (2). Сброс данных на файловую систему может производиться только на стадии 1. Если сброса временных данных не было, то на стадии 2 может потребляться до такого же объёма памяти, как на стадии 1."
  • https://t.me/clickhouse_ru
    @pygeorge #13423 01:16 PM, 02 May 2017
    Привет! Возможно ли вызвать OPTIMIZE по всем данным. Сейчас этот запрос выполняется очень быстро и оптимизирует минимум строк.
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #13423 #13424 01:21 PM, 02 May 2017
    Может быть вам поможет OPTIMIZE FINAL.
    "Если указан FINAL, то оптимизация будет производиться даже когда все данные уже лежат в одном куске."
  • @sr_maks1 ↶ Reply to #13421 #13425 01:25 PM, 02 May 2017
    Хорошо. А его можно прописать в конфиге? в server.xml?
  • https://t.me/clickhouse_ru
    @rheinx #13426 01:27 PM, 02 May 2017
    в users.xml:

    <!-- Profiles of settings. -->
    <profiles>
    <!-- Default settings. -->
    <default>
    <!-- Maximum memory usage for processing single query, in bytes. -->
    <max_memory_usage>20000000000</max_memory_usage>

    <!-- Use cache of uncompressed blocks of data. Meaningful only for processing many of very short queries. -->
    <use_uncompressed_cache>0</use_uncompressed_cache>

    <!-- How to choose between replicas during distributed query processing.
    random - choose random replica from set of replicas with minimum number of errors
    nearest_hostname - from set of replicas with minimum number of errors, choose replica
    with minumum number of different symbols between replica's hostname and local hostname
    (Hamming distance).
    in_order - first live replica is choosen in specified order.
    -->
    <load_balancing>random</load_balancing>
    </default>

    <!-- Profile that allows only read queries. -->
    <readonly>
    <readonly>1</readonly>
    </readonly>
    </profiles>
  • @vludv ↶ Reply to #13424 #13427 01:49 PM, 02 May 2017
    OPTIMIZE FINAL имеет смысл делать либо если вы добавили новую колонку и хоитите матереализовать ее на диске, либо если вы используете какой-нибудь экзотический движок типа GraphiteMergeTree.
    Если у вас много данных, а OPTIMIZE отрабатывает быстро, то это говорит о том что оптимизации (мержи) просто не назначаются ввиду ограничений в настройках <merge_tree></merge_tree>.
    Так по-умолчанию мержи не назначаются если размер наибольшего куска больше max_bytes_to_merge_at_max_space_in_pool=100GB.
  • @vludv ↶ Reply to #13419 #13428 01:52 PM, 02 May 2017
    А можете где-нибудь (например в GitHub issues https://github.com/yandex/ClickHouse/issues/new) описать проблему чуть подробнее?
    Для начала стектрейс ошибки был бы очень полезен.
    Build software better, together

    GitHub is where people build software. More than 28 million people use GitHub to discover, fork, and contribute to over 85 million projects.

  • https://t.me/clickhouse_ru
    Спасибо. Создал: https://github.com/yandex/ClickHouse/issues/752
    Column not found error · Issue #752 · yandex/ClickHouse

    We have distributed table clickstream and 6 nodes (3 shards x 2 replicas) with local tables. I removed columns utm_source, utm_medium, utm_campaign both from distributed and local tables and change...

  • @vludv ↶ Reply to #13429 #13430 02:08 PM, 02 May 2017
    У вас случаем нет MaterializedView "смотрящих" на измененные таблицы?
  • https://t.me/clickhouse_ru
    есть только обычные View
  • https://t.me/clickhouse_ru
    @vladenisov #13432 02:11 PM, 02 May 2017
    но я их удалил (не особо нужны), и всё заработало
  • https://t.me/clickhouse_ru
    @vladenisov #13433 02:11 PM, 02 May 2017
    спасибо!
  • @alexaso1 #13434 02:12 PM, 02 May 2017
    Joined.
  • @alexaso1 #13435 02:22 PM, 02 May 2017
    Добрый день! Скажите, есть ли смысл создавать дополнительные хэш столбцы для строковых столбцов, по которым идет группировка? Например, есть колонка col String, стоит ли создать colhash uint64 default siphash64(col) а затем делать group by colhash, col. Сделает ли это запрос быстрее или может наоборот?
  • https://t.me/clickhouse_ru
    @rheinx #13436 02:40 PM, 02 May 2017
    Может работать эффективнее по памяти если строки у вас длиннее хеша.
  • https://t.me/clickhouse_ru
    @pygeorge ↶ Reply to #13427 #13437 03:20 PM, 02 May 2017
    Спасибо за полный ответ!
  • https://t.me/clickhouse_ru
    @umaxfun #13438 03:21 PM, 02 May 2017
    Всем привет! А на какком-то из митапов говорили, что можно запрашивать прямо из CSV, без перегрузки в БД. Кто-то помнит как?
  • https://t.me/clickhouse_ru
    @vasya_toropov #13439 03:23 PM, 02 May 2017
    clickhouse-local?
  • https://t.me/clickhouse_ru
    @umaxfun #13440 03:28 PM, 02 May 2017
    Да, точно! А где оно берётся? На маке только клиент и сервер видно сразу
  • https://t.me/clickhouse_ru
    @proller #13441 03:43 PM, 02 May 2017
    clickhouse --local
  • https://t.me/clickhouse_ru
    @proller #13442 03:43 PM, 02 May 2017
    можно сделать симлинк clickhouse -> clickhouse-local
  • @f1yegor ↶ Reply to #13435 #13443 04:20 PM, 02 May 2017
    вот тут можно почерпнуть некоторые идеи https://t.co/VNr3Fwj9Mx
  • https://t.me/clickhouse_ru
    @umaxfun #13444 04:59 PM, 02 May 2017
    Для истории: как по-простому позапрашивать из многомногомногоколоночного CSV: cat gl.csv | clickhouse-local -S "`head -n 1 gl.csv | sed -e 's/\"/\n/g' | sed -e 's/,/ String,/g' | tr --delete '\n' | sed 's/.*/\0 String/'`" --input-format=CSV -q "select count(*) from table where message = 'SearchResult' limit 10" #faq
  • https://t.me/clickhouse_ru
    @borisch #13445 05:42 PM, 02 May 2017
    Добрый вечер. Прошу подсказать. Есть таблица A (35М строк, MEMORY) и таблица B (100M строк, MergeTree) обе имеют столбец column. Хочу создать селект значений column, которые содержатся в A но не содержатся в B, другими словами вычесть из множества A множество B. Есть идеи как лучше реализовать и при этом не получить ошибку 'Cannon allocate memory' при джоине? :)
  • @ztlpn ↶ Reply to #13445 #13446 06:22 PM, 02 May 2017
    Попробуйте через два join-а: https://groups.google.com/d/msg/clickhouse/-2S1IRtAKq8/fujUMoCYAgAJ . Хотя у вас таблицы имеют близкий размер, может и не помочь.
    Google Groups

    Google Groups allows you to create and participate in online forums and email-based groups with a rich experience for community conversations.

  • https://t.me/clickhouse_ru
    @AndreevDm #13447 06:48 PM, 02 May 2017
    А значения уникальные?
  • https://t.me/clickhouse_ru
    @borisch #13448 06:56 PM, 02 May 2017
    @AndreevDm да, уникальные. @ztlpn, спасибо, попробую.
  • @MolchanovAV #13449 07:42 PM, 02 May 2017
    Joined.
  • @MolchanovAV #13450 08:02 PM, 02 May 2017
    Всем привет. Последнюю неделю потихоньку провожу тестирование CH. Постоянно "глаз цепляется" за
  • https://t.me/clickhouse_ru
    @belomore #13451 08:02 PM, 02 May 2017
    Интрига.
  • @MolchanovAV #13452 08:02 PM, 02 May 2017
    Движок MergeTree поддерживает индекс по первичному ключу и по дате, и обеспечивает возможность обновления данных в реальном времени.
  • @MolchanovAV #13453 08:04 PM, 02 May 2017
    И вопрос знатокам: Кто ? Кого и главное когда, обновляет?
  • @shinebell #13454 08:04 PM, 02 May 2017
    имеется ввиду, что в этом движке не нужно ждать каких-то слияний или еще чего
  • @shinebell #13455 08:04 PM, 02 May 2017
    залили данные и они сразу доступны
  • @shinebell #13456 08:05 PM, 02 May 2017
    но про апдейты - забудьте )
  • @MolchanovAV #13457 08:11 PM, 02 May 2017
    ну вот, как все скучно и быстро выяснилось
  • @MolchanovAV #13458 08:15 PM, 02 May 2017
    кто нибудь пробовал держать много данных в одной партиции ? без разделения лога по датам? вопрос относительно ReplacingMergeTree
  • @garikanet #13459 08:31 PM, 02 May 2017
    Вопрос к Сore разработчикам, может он покажется глупым - заранее сорри, но очень давно хотел спросить, много работаем с Collapsing и каждый раз возникает мысль, а если передавать поле NULL для обновляемой записи - то можно схлопывать: "значение" + NULL = "как значение".

    Поясню идею - допустим мы пишем действия пользователей на страницы - там передается Date+VisitID + UserAgent + URL_Referer + Время пользователя на странице -> сейчас мы это все храним в нашем ETL в памяти UserAgent+URL_Referer ради обновления "времени на странице".

    А если хранить только Date+VisitID, а в поле UserAgent + URL_Referer передавать NULL и надеяться на то - что Collapsing схлопнет их и сохранит _любое_ не NULL значение.
    ИМХО это бы решило много проблем... Это теоритически вообще возможно такое поведение или я сильно заблуждаюсь ?
  • https://t.me/clickhouse_ru
    @orantius #13460 09:56 PM, 02 May 2017
    если у вас есть crdt с некоторым мержем v1,v2->v, то лифтинг в Nullable(T) кажется тривиален.
  • https://t.me/clickhouse_ru
    @orantius #13461 09:56 PM, 02 May 2017
    вопрос в том, какие проблемы это создаст.
  • @rasmus93 #13462 11:03 PM, 02 May 2017
    Всем привет, а то что для ReplicatedReplacingMergeTree выделяется 6 потоков для каждой таблицы это нормально?
  • 03 May 2017 (51 messages)
  • https://t.me/clickhouse_ru
    Может вам агрегирующий двиг попробовать?
  • @milovidov_an #13464 06:37 AM, 03 May 2017
    16 мая состоится митап в Екатеринбурге:
    https://events.yandex.ru/events/meetings/16-may-2017/
    Если вы рядом - регистрируйтесь, приглашайте друзей. Будет интересно :)
    ClickHouse Meetup, 16 мая 2017, Екатеринбург — События Яндекса

    События — вся информация о конференциях, школах, семинарах и других мероприятиях Яндекса — как прошедших, так и предстоящих.

  • @shinebell #13465 07:14 AM, 03 May 2017
    похоже без трансляции и записи
  • @milovidov_an #13466 07:16 AM, 03 May 2017
    Насколько я знаю - да.
  • @rasmus93 ↶ Reply to #13462 #13467 09:13 AM, 03 May 2017
    Я немножко поэкспериментировал с созданем таблиц на оснвании ReplicatedReplacingMergeTree и обнаружил, что для каждой таблицы с этим движком выделяется 6 потоков. Хотелось бы узнать это нормальное поведение? И если да, то почему так, для чего это делается? Вопрос скорее к разработчикам @milovidov_an
  • @lexa_work #13468 09:28 AM, 03 May 2017
    я не разработчик, но чтоб понять ваше беспокойства (планирую использовать тот же тип движка) несколько уточняющих вопросов к вам:
    1. Для других типов (например просто ReplicatedMergeTree) сколько выделяется потоков?
    2. Даже если потоков больше на 1-2 (возможно нужны для поиска повторов или еще чего-то) считаете ли вы это проблемой? Или это скорее просто любопытсво по внутреннему стройству движков?
  • @rasmus93 #13469 09:43 AM, 03 May 2017
    1. Для ReplicatedMergeTree выделяется тоже 6 потоков. Для остальных типов не смотрел.
    2. Да, к сожалению для нас это проблема, т.к. у нас создается достаточно много таблиц и кликхаус отваливается, так как ему не хватает потоков, поэтому и хотелось бы узнать почему это так :)
  • https://t.me/clickhouse_ru
    @xsikor #13470 09:44 AM, 03 May 2017
    Всем привет. Назрел вопрос по индексам в мердж три.
    Я так понимаю они не работают по отдельности? А работают потипу как партишен кей в кассандре?
    Что бы всё работало верно - надо указывать в правильном порядке?
    Т.к. есть к примеру CampID, я вношу его в индекс после EventDate и когда делаю выборку по нему - всё равно клик хаус проходит через всез записи в базе
  • https://t.me/clickhouse_ru
    @xsikor #13471 09:45 AM, 03 May 2017
    Есть ли возможность сделать как-то "привычные" индексы?
  • https://t.me/clickhouse_ru
    @rheinx #13472 09:47 AM, 03 May 2017
    Привычных нет. Есть ключ и поле с датой. Поле с датой для партиций. Ключ для сортировки данных.
  • https://t.me/clickhouse_ru
    @rheinx #13473 09:51 AM, 03 May 2017
    Тут очень подробно про ключ.

    https://groups.google.com/forum/#!searchin/clickhouse/%D0%B8%D0%BD%D0%B4%D0%B5%D0%BA%D1%81%7Csort:relevance/clickhouse/eUrsP30VtSU/p4-pxgdXAgAJ
  • https://t.me/clickhouse_ru
    @rheinx #13474 09:52 AM, 03 May 2017
    Или тут на англ:

    https://medium.com/@f1yegor/clickhouse-primary-keys-2cf2a45d7324
    ClickHouse Primary Keys

    Recently I dived deep into ClickHouse. ClickHouse is column-store database by Yandex with great performance for analytical queries. For…

  • с учетом того, что CH колоночная БД, есть ощущение, что вы как-то не так пытаетесь его использовать (я про очень большое кол-во таблиц)
  • @lexa_work #13476 10:01 AM, 03 May 2017
    стараются делать одну большую (разряженную) таблицу
  • https://t.me/clickhouse_ru
    @xsikor #13477 10:02 AM, 03 May 2017
    Ага, спасибо большое. Пойду читать
  • @rasmus93 ↶ Reply to #13476 #13478 10:18 AM, 03 May 2017
    Я понимаю о чем вы, но сейчас у нас такое решение и по-другому пока не очень получается развернуть систему(в виду определнных ограничений)
  • https://t.me/clickhouse_ru
    @rattrog #13479 10:26 AM, 03 May 2017
    Добрый день. А есть ли возможность удалять партишены из материализованных представлений?
  • https://t.me/clickhouse_ru
    @rattrog #13480 10:52 AM, 03 May 2017
    Вопрос снят. Другой вопрос: насколько безопасно завязывать чистку партишенов на .inner.* таблицы, лежащие под представлениями? Насколько велик шанс, что их названия поменяются в будущих версиях?
  • @Gablix #13481 11:45 AM, 03 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @emtsptth #13482 03:28 PM, 03 May 2017
    Почему при простом select * из Distributed table могу получать "Unknown identifier: valid"? где valid тип UInt8
  • https://t.me/clickhouse_ru
    @salim_murtazaliev #13483 03:31 PM, 03 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    Стоит проверить совпадают ли колонки у Distributed и у табличек на которые она смотрит.
  • @vludv ↶ Reply to #10844 #13485 03:35 PM, 03 May 2017
    Можно динамически без конфигов менять размер пула
  • https://t.me/clickhouse_ru
    @emtsptth ↶ Reply to #13484 #13486 03:35 PM, 03 May 2017
    Естессно, создавались через AS
  • @varyhin #13487 03:35 PM, 03 May 2017
    Подскажите а репликация через zookeeper это временное решение?
  • @vludv ↶ Reply to #13487 #13488 03:36 PM, 03 May 2017
    В каком смысле?
  • @varyhin #13489 03:37 PM, 03 May 2017
    Есть ли планы сделать репликацию без использования zookeeper?
  • @varyhin #13490 03:37 PM, 03 May 2017
    Или он с clickhouse всерьез и надолго
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13491 03:40 PM, 03 May 2017
    тоже хейтите яву?)
  • @iamigor #13492 03:41 PM, 03 May 2017
    кто-то внедрял zetcd вместо zookeeper в чате. и поддержку consul просили
  • @lexa_work #13493 03:46 PM, 03 May 2017
    вот если бы разработчики провоидили какой-нибудь опрос/голосование, то я бы поставил пункт "избавиться от zookeeper" в последним в списке! Тем более если он работает и выполняет свои функции.
  • @lexa_work #13494 03:46 PM, 03 May 2017
    есть множество более других вещей, которые нужно делать
  • @lexa_work #13495 03:47 PM, 03 May 2017
    но хорошо, что разработчики делают то, что реально востребованно и не реагируют особо на такие хейтерские запросы
  • @iamigor #13496 03:49 PM, 03 May 2017
    не думаю, что в todo у яндекса пункт "избавиться от zookeeper" вообще есть, с учетом того, что они его внутри активно используют %)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13497 03:51 PM, 03 May 2017
    haters must hate :)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13498 03:51 PM, 03 May 2017
    +1 за zetcd
  • @iamigor #13499 03:54 PM, 03 May 2017
    Настроил кластер Clickhouse из 2х нод на zetcd вместо zookeeper-a. На первый взгляд успешно работает ;) данные вставляются и видны на обоих нодах.
  • @yamlcoder #13500 04:08 PM, 03 May 2017
    Scylladb хвастаются своим решением на задаче которая (кажется) хорошо ложится на кликхаус. Может получится пост для топа hacker news если сравнить два решения по скорости/цене/простоте. http://www.scylladb.com/2017/05/02/analyzing-flight-delays-scylla-spark/
    Analyzing flight delays with Scylla on top of Spark

    We analyzed flight delays to demonstrate how to use Spark Scala API with Scylla to get instant results.

  • https://t.me/clickhouse_ru
    @pavel_odintsov #13501 04:09 PM, 03 May 2017
    сцилла это а-ля кассандра
  • @yamlcoder #13502 04:10 PM, 03 May 2017
    Да, но задача вроде sql ем решается тоже, если есть поддержка group by :)
  • https://t.me/clickhouse_ru
    @etkee #13504 04:15 PM, 03 May 2017
    там, думаю, все-таки на порядок ниже производительность будет. все это дело должно выгрузиться целиком из сциллы, пройти через внешний обработчик, который вероятнее всего обрабатывает записи построчно, и там сгруппироваться. насколько помню, КХ очень агрессивно юзает обработку массивами (и, скорее всего, оттуда и все использования SSE), и здесь будет сложно добиться каких-то аналогичных результатов с выгрузкой по сетке и обработкой каждой записи отдельно.
  • https://t.me/clickhouse_ru
    @nikitosiusis #13505 04:17 PM, 03 May 2017
    видимо речь шла сначала сконвертировать данные в кх а потом уже посчитать его средствами
  • https://t.me/clickhouse_ru
    @nikitosiusis #13506 04:20 PM, 03 May 2017
    они там еще и в докере все сделали. хипстеры какие-то
  • https://t.me/clickhouse_ru
    @etkee #13507 04:20 PM, 03 May 2017
    там через спарк гонят
  • https://t.me/clickhouse_ru
    @etkee #13508 04:21 PM, 03 May 2017
    сцилла при этом сама рекомендует использовать себя только на XFS, как там union fs с этим - хз
  • Именно, сравнить решения одной задачи: Посчитать средние задержки рейсовом имея на руках исходный csv
  • https://t.me/clickhouse_ru
    @etkee #13510 04:28 PM, 03 May 2017
    ну я и говорю что кх по прикидкам должен солидно выиграть только за счет самой модели, не говоря про более мелкие нюансы )
  • Вот вот, можно смело писать clickbait заголовок и лететь в топ :)
  • https://t.me/clickhouse_ru
    @Vestrond #13512 05:02 PM, 03 May 2017
    Joined.
  • @varyhin ↶ Reply to #13491 #13513 05:59 PM, 03 May 2017
    Нет, никакого раздражения не вызывает
  • @118876030 #13514 10:15 PM, 03 May 2017
    Joined.
  • 04 May 2017 (147 messages)
  • https://t.me/clickhouse_ru
    @dvolodin #13515 08:47 AM, 04 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @dmitryluhtionov #13516 08:48 AM, 04 May 2017
    Добрый день. Сlickhouse не собирается на FreeBSD 11-STABLE
  • @iamigor #13517 08:52 AM, 04 May 2017
    Что пишет? 26 и 25-26 строки в build_freebsd.sh закомменчены, пробовали с ними?
    Как вариант проще - докер?..
  • https://t.me/clickhouse_ru
    @dmitryluhtionov #13518 08:57 AM, 04 May 2017
    /tmp/usr/ports/databases/clickhouse/work/ClickHouse-1.1.54214-testing/dbms/src/AggregateFunctions/AggregateFunctionSequenceMatch.h:306:32: error: no matching member function for call to 'ignore'
    if (special_open_p.ignore(pos, end))
    ~~~~~~~~~~~~~~~^~~~~~
    /tmp/usr/ports/databases/clickhouse/work/ClickHouse-1.1.54214-testing/dbms/src/Parsers/IParser.h:43:10: note: candidate function not viable: no known conversion from 'char *' to 'Pos &' (aka 'const char *&') for 1st argument
    bool ignore(Pos & pos, Pos end)
    ^
  • https://t.me/clickhouse_ru
    @nikitosiusis #13519 09:01 AM, 04 May 2017
    Порты в tmp это солидно
  • https://t.me/clickhouse_ru
    @proller #13520 09:03 AM, 04 May 2017
  • https://t.me/clickhouse_ru
    @ru_abramov #13521 09:05 AM, 04 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @proller #13522 09:17 AM, 04 May 2017
    и на 11.0-RELEASE с clang3.8 не воспроизводится
  • https://t.me/clickhouse_ru
    Не открывается
  • https://t.me/clickhouse_ru
    @GeorgiChernousov #13524 10:12 AM, 04 May 2017
    Joined.
  • https://t.me/clickhouse_ru
  • @petr_pogorelov #13526 10:22 AM, 04 May 2017
    Joined.
  • @DenysLamanov #13527 11:24 AM, 04 May 2017
    Всем привет!)
  • @DenysLamanov #13528 11:24 AM, 04 May 2017
    У кого-нибудь есть свежий clickhouse-jdbc?
  • @DenysLamanov #13529 11:24 AM, 04 May 2017
    Или как его собрать со всеми зависимостями под виндовс?
  • https://t.me/clickhouse_ru
  • @DenysLamanov #13531 11:27 AM, 04 May 2017
    Спасибо
  • @TransactionTimeout #13532 11:28 AM, 04 May 2017
    Всем доброго дня! А кто-то настраивал чере jdbc-драйвер, отображение, скажем, в DataGrip?
  • @DenysLamanov #13533 11:29 AM, 04 May 2017
    В DBeaver все прекрасно работает)
  • https://t.me/clickhouse_ru
    @vla_vin #13534 11:29 AM, 04 May 2017
    Пока только в Idea. Если не считать пару небольших косяков, работает нормально
  • https://t.me/clickhouse_ru
    @vla_vin #13535 11:30 AM, 04 May 2017
    В DG скорее всего аналогичная настройка
  • @TransactionTimeout #13536 11:30 AM, 04 May 2017
    Ага, то есть возможно! Спасибо, буду пробовать
  • https://t.me/clickhouse_ru
    @vla_vin #13537 11:30 AM, 04 May 2017
    Да, создается новый источник с jdbc драйвером и дальше как обычно
  • https://t.me/clickhouse_ru
    @rheinx #13538 11:31 AM, 04 May 2017
    У меня коллега удачно настроил. Даже список полей в таблицах виден с типами
  • А где взять версию скомпилированную со всеми зависимостями?
  • https://t.me/clickhouse_ru
    @vla_vin #13540 11:31 AM, 04 May 2017
    Только собрать самому ((
  • https://t.me/clickhouse_ru
    @vla_vin #13541 11:32 AM, 04 May 2017
    Предложение складывать ее тоже в централ пока не поддержали =(
  • https://t.me/clickhouse_ru
    @vasiliyozerov #13542 11:32 AM, 04 May 2017
    Там же мавен все сам установит
  • https://t.me/clickhouse_ru
    @vla_vin #13543 11:33 AM, 04 May 2017
    Если ты подключаешь его как источник через файл драйвера к приложению то не установит
  • @DenysLamanov #13544 11:34 AM, 04 May 2017
    собирать через maven или maven2?
  • https://t.me/clickhouse_ru
    @vla_vin #13545 11:36 AM, 04 May 2017
    Я так думаю не принципиально. Там тривиальная сборка
  • https://t.me/clickhouse_ru
    @vla_vin #13546 11:36 AM, 04 May 2017
    Я собирал через встроенный в Idea
  • @sr_maks1 #13547 11:38 AM, 04 May 2017
    😊 ребят я не прогер - но там сборка проста как дважды два. Единственное - указать либо с зависимостями либо без. Ну и скип тест. В принципе в гитхабе все написано
  • @sr_maks1 #13548 11:38 AM, 04 May 2017
    если нужен кому то - в личку пишите - соберу.
  • https://t.me/clickhouse_ru
    @rheinx #13549 11:40 AM, 04 May 2017
    Ребят, а кто-нибудь завел Pentaho, Tableau или что-то подобное с ClickHouse?
  • @TransactionTimeout #13550 11:44 AM, 04 May 2017
    При попытке добавления в datagrip падает с ошибкой:

    java.lang.RuntimeException: ru.yandex.clickhouse.except.ClickHouseException: ClickHouse exception, code: 46, host: 127.0.0.1, port: 8123; Code: 46, e.displayText() = DB::Exception: Unknown function timezone, e.what() = DB::Exception
  • @TransactionTimeout #13551 11:44 AM, 04 May 2017
    никто не сталкивался с такой проблемой?
  • https://t.me/clickhouse_ru
    @orantius #13552 11:46 AM, 04 May 2017
    в какой-то из версий драйвера при старте он делает запрос в сервер за таймзоной, эта функция есть не во всех версиях сервера. в следующей версии драйвера это поведение по умолчанию выключено.
  • https://t.me/clickhouse_ru
    @orantius #13553 11:46 AM, 04 May 2017
    т.е. должно лечиться либо апгрейдом сервера либо драйвера.
  • @TransactionTimeout #13554 11:46 AM, 04 May 2017
    я взял последний код из гитхаба
  • @Andrew_ya3 #13555 11:47 AM, 04 May 2017
    а не подскажете, как в той же Datagrip заэкранировать ? в тернарном операторе, чтобы IDE не просила туда значение параметра подставить?
  • https://t.me/clickhouse_ru
    @orantius #13556 11:48 AM, 04 May 2017
    if(a,b,c)
  • @Andrew_ya3 #13557 11:49 AM, 04 May 2017
    логично, спасибо
  • @smiren #13558 11:52 AM, 04 May 2017
    А в чатике есть успешно собравшие свежий мастер под macos?
  • https://t.me/clickhouse_ru
    @vla_vin ↶ Reply to #13554 #13559 11:53 AM, 04 May 2017
    Посмотрел код. Такое поведение возникает если в подключении указана настройка use_server_time_zone
  • спасибо, гляну
  • https://t.me/clickhouse_ru
    @orantius #13561 11:55 AM, 04 May 2017
    да, там нужно выставить его в false, и видимо установить use_time_zone в что-то вроде europe/moscow
  • а что конкретно надо? есть штукенция нечто web pivot builder, недавно добавили коннектор к CH и даже вроде как все работает. Кто желает поэкспериментировать велкам в личку.
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #13563 #13564 12:06 PM, 04 May 2017
    да по сути и нужен pivot с drag & drop и прочими плюшками. Менеджерам что угодно, лишь бы SQL не учить)
  • Да, помогло, спасибо! Подключиться получилось, список таблиц виден, но при попытке просмотреть какую-либо из них получаю ошибку:

    [62] ClickHouse exception, code: 62, host: 127.0.0.1, port: 8123; Code: 62, e.displayText() = DB::Exception: Syntax error: failed at position 17: "default".ib_log t FORMAT TabSeparatedWithNamesAndTypes;, expected identifier, e.what() = DB::Exception java.lang.Throwable: Code: 62, e.displayText() = DB::Exception: Syntax error: failed at position 17: "default".ib_log t FORMAT TabSeparatedWithNamesAndTypes;, expected identifier, e.what() = DB::Exception
  • https://t.me/clickhouse_ru
    @orantius #13566 12:08 PM, 04 May 2017
    а откуда берется это имя в кавычках?
  • @TransactionTimeout #13567 12:09 PM, 04 May 2017
    это jdbc драйвер так поставляет
  • https://t.me/clickhouse_ru
    @orantius #13568 12:09 PM, 04 May 2017
    кликхаус имена понимает либо просто default либо в обратных кавычках default, которые телеграм не рисует.
  • https://t.me/clickhouse_ru
    @skoffer #13569 12:11 PM, 04 May 2017
    `default`
  • https://t.me/clickhouse_ru
    @skoffer #13570 12:11 PM, 04 May 2017
    Надо просто две кавычки поставить
  • @TransactionTimeout #13571 12:11 PM, 04 May 2017
    ок, буду смотреть в настройках
  • https://t.me/clickhouse_ru
    @vla_vin ↶ Reply to #13571 #13572 12:31 PM, 04 May 2017
    Дело не в настройках https://github.com/yandex/clickhouse-jdbc/issues/91
    Table select doesn't work in JetBrains IDE · Issue #91 · yandex/clickhouse-jdbc

    I successfully compiled last master and installed it in PyCharm settings. Connection is OK, I see schema, databases, tables and there fields. Queries to ClickHouse via query interface work fine. Bu...

  • https://t.me/clickhouse_ru
    @ikitiki #13573 12:31 PM, 04 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @vla_vin #13574 12:32 PM, 04 May 2017
    Поэтому просто перепиши запрос к таблице руками =)
  • @TransactionTimeout #13575 12:32 PM, 04 May 2017
    да, с запросом руками все ОК :)
  • https://t.me/clickhouse_ru
    @VTolm #13576 12:49 PM, 04 May 2017
    Joined.
  • @garikanet #13577 01:23 PM, 04 May 2017
    Подскажите, что я делаю не так с Enum


    CREATE TABLE model.x11 (
    site_id Int32,
    type Enum8('normal' = 1, 'bad' = 2)
    ) ENGINE = Log;

    INSERT INTO model.x11
    SELECT toInt32(123) as site_id,'normal' as type

    >> DB::Exception: Type mismatch for column type. Column has type Enum8('normal' = 1, 'bad' = 2), got type String
  • @iamigor #13578 01:25 PM, 04 May 2017
    https://github.com/yandex/ClickHouse/issues/215

    там какая-то движуха вон недавно была, может в новых версиях исправлено
    Cannot insert a human-readable Enum value using INSERT INTO .. SELECT #215

    An example table: :) CREATE TABLE events ( type Enum8('session' = 1, 'pageview' = 2, 'click' = 3), date Date, id UInt64 ) ENGINE = MergeTree(date, (type, date, id), 8192); Ok. 0 rows in set. Elapsed: 0.008 sec. Adding the data from anoth...

  • https://t.me/clickhouse_ru
    @alexey_laptev #13579 01:25 PM, 04 May 2017
    Добрый день

    Проектирую систему аналитики, похожую на метрику

    Т.е. фиксируются все клики и собираются около 70 параметров по ним.

    Часть кликов будет помечена как конверсионные

    Задача - строить различные отчеты по группе параметров и дате. Как в метрике.

    Планируется 1 млрд кликов в год и пиковая нагрузка 1000rps на запись в эту таблицу.

    Вопросы:

    1. Все 70 параметров помещать в одну таблицу или разбивать на важные и не важные
    2. Стоит ли разбивать таблицу по проектно,по счетчикам если брать за пример метрику
    3. Какие параметры сервера нужны под такие требования?
  • Спасибо)
  • https://t.me/clickhouse_ru
    @orantius ↶ Reply to #13579 #13583 01:28 PM, 04 May 2017
    заливайте данные в метрику, деньги поделим.
  • @iamigor #13584 01:28 PM, 04 May 2017
    3. Какие параметры сервера нужны под такие требования?

    https://github.com/yandex/ClickHouse/blob/master/doc/administration/tips.txt

    Больше RAM - лучше
  • https://t.me/clickhouse_ru
    @alexey_laptev #13585 01:33 PM, 04 May 2017
    понятно, а по первым двум вопросам что можете посоветовать?
  • @garikanet #13586 01:33 PM, 04 May 2017
    1. Все 70 параметров помещать в одну таблицу или разбивать на важные и не важные
    2. Стоит ли разбивать таблицу по проектно,по счетчикам если брать за пример метрику

    - Пишите в одну таблицу в кластер ReplicatedMergeTree
    - Жмите если возможно поля через cityHash64(user_id_hash) для экономии места
    - 70 параметров и млрд кликов в год - не много -> не стоит дробить
  • https://t.me/clickhouse_ru
    @alexey_laptev #13587 01:35 PM, 04 May 2017
    а под такой объем данных можете назвать необходимый RAM и проц и место на диске? Понятно что чем больше тем лучше, но хотелось оптимальный вариант
  • https://t.me/clickhouse_ru
    @alexey_laptev #13588 01:35 PM, 04 May 2017
    чтобы от чегото отталкиваться
  • @iamigor #13589 01:36 PM, 04 May 2017
    все зависит от того, запросы за какой период, каких данных и какой сложности будете выполнять
  • @TransactionTimeout #13590 01:36 PM, 04 May 2017
    » 70 параметров и млрд кликов в год - не много -> не стоит дробить

    О, а тут имеется ввиду сделать какое-то поле fake_date MATERIALIZED toDate(0),
    и делать MergeTree(fake_date, ...) ?
  • https://t.me/clickhouse_ru
    @alexey_laptev #13591 01:39 PM, 04 May 2017
    ок, спасибо
  • https://t.me/clickhouse_ru
    @orantius ↶ Reply to #13579 #13592 01:44 PM, 04 May 2017
    если чуть более серьезно, то
    - с точки зрения использования одна таблица с 70 параметрами работает нормально, если они фиксированной или ограниченной не очень большой длины,
    - со стороны чтения удобно ходить в одну distributed таблицу, которая до некоторой степени абстрагирует логику шардирования.
    - если соберетесь шардировать, у вас будет несколько вариантов со своими плюсами и минусами, по времени, по клиентам, по кликам..
    - в простом случае ключ, судя по всему, у вас начинается с даты и клиента, это хорошо.
    - 1 ярд событий, если они даже по килобайту это 1Тб в год, т.е. по диску вам больше одной машины не надо, из тех же соображений, вставка 1Мб/с не ограничена производительностью этой машины. при желании вы эти данные вообще можете в памяти держать. реплицировать, конечно же, нужно.
    - если вы будете апдейтить клики, то ваша работа станет чуть менее удобной, хотя и более гибкой.
    - по железу отталкивайтесь от чего угодно, поднимите виртуалку например, сгенерите случайные данные, посмотрите получаемую скорость, возможно вам уже будет достаточно. у нас тут люди запускаются на машинах от 200Гб до кофеварок с 1-2Гб. подходящая конфигурация может зависеть от количества одновременных запросов, от типового размера данных, от желаемого времени ответа итд.
  • https://t.me/clickhouse_ru
    @alexey_laptev #13593 01:46 PM, 04 May 2017
    понятно, радует что все одной таблице
  • @Gablix #13594 02:10 PM, 04 May 2017
    /stat@combot
  • https://t.me/clickhouse_ru
    @rheinx #13596 02:11 PM, 04 May 2017
    А есть ли в ClickHouse возможность джойнить по date between start_date and end_date?
  • @iamigor #13597 02:11 PM, 04 May 2017
    можно джойнить по кортежам
    или мб даже массивам
  • @iamigor #13598 02:11 PM, 04 May 2017
    хз правда что из этого выйдет, если одно поле
  • @iamigor #13599 02:12 PM, 04 May 2017
    а в смысле - джойнить по date between?
  • https://t.me/clickhouse_ru
    @rheinx #13600 02:20 PM, 04 May 2017
    ну да, в одной таблице есть записи с date, в другой есть записи с start_date и end_date.
  • https://t.me/clickhouse_ru
    @rheinx #13601 02:26 PM, 04 May 2017
    У меня кейс очень похожий на описание range_hashed словаря
  • https://t.me/clickhouse_ru
    @orantius #13602 02:26 PM, 04 May 2017
    вы хотите join on, а пока работает только using.
  • https://t.me/clickhouse_ru
    @orantius #13603 02:29 PM, 04 May 2017
    можно наколдовать некий arrayJoin(dateRange(start_date,end_date)) as date , что наверное отработает как то, что вам нужно.
  • @rshafeev #13604 02:29 PM, 04 May 2017
    Joined.
  • @MolchanovAV #13606 02:47 PM, 04 May 2017
    /stat@combot
  • https://t.me/clickhouse_ru
    @winogradoff #13608 02:57 PM, 04 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @winogradoff #13609 02:59 PM, 04 May 2017
    Есть новости по update/delete?
  • https://t.me/clickhouse_ru
    @hagen1778 #13610 03:01 PM, 04 May 2017
    Обязательно ли соблюдение порядка столбцов в таблицах MergeTree при выборке через Distributed?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13611 03:02 PM, 04 May 2017
    делит возможен, но только помесячно
  • @lexa_work #13612 03:02 PM, 04 May 2017
    а вот кстати, все меня глодал вопрос
  • @lexa_work #13613 03:02 PM, 04 May 2017
    удаление по месяцу, но строится все на типе Date
  • @lexa_work #13614 03:02 PM, 04 May 2017
    почему тогда не по дням?
  • @lexa_work #13615 03:02 PM, 04 May 2017
    почему партиции привязаны к месяцу?
  • @shinebell #13616 03:03 PM, 04 May 2017
    вот сделют произвольное партицирование, все будет )
  • @shinebell #13617 03:03 PM, 04 May 2017
    вопрос только - когда
  • https://t.me/clickhouse_ru
    захардкодили, а перекомпилировать долго. это же си
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13619 03:04 PM, 04 May 2017
  • это шутка такая?
  • https://t.me/clickhouse_ru
    @winogradoff #13621 03:05 PM, 04 May 2017
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13622 03:05 PM, 04 May 2017
    а есть, кстати, кошелек / счет куда можно закинуть деньгу на развитие проекта?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13623 03:06 PM, 04 May 2017
    я, конечно, понимаю, что у Яндекса и без моей мелочи денег предостаточно, но имхо, это вполне неплохой способ приоретизации фич. авторы всегда могут отдать их куда-то/кому-то
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13624 03:06 PM, 04 May 2017
    в конце-концов, 90% тут колотит/экономит неиллюзорное бабло на CH вполне себе откровенно
  • https://t.me/clickhouse_ru
    @rheinx #13625 03:11 PM, 04 May 2017
    SL3 планировали сделать. Я думаю денег туда можно заслать)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13626 03:11 PM, 04 May 2017
    SL3?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13627 03:11 PM, 04 May 2017
    простите, я не знаю что это :(
  • https://t.me/clickhouse_ru
    @rheinx #13628 03:17 PM, 04 May 2017
    service level 3. Поддержка платная или не ещё называют Enterprise поддержкой.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13629 03:23 PM, 04 May 2017
    круто! ждем цен :) у меня личный интерес, не от компании, сильно золотых гор обещать не могу
  • @278430275 #13630 03:25 PM, 04 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @rattrog ↶ Reply to #13629 #13631 03:26 PM, 04 May 2017
    Хмм... Интересно, зачем колоночная высокопроизводительная БД может понадобиться для личного интереса?
  • https://t.me/clickhouse_ru
    @proller ↶ Reply to #13518 #13632 03:27 PM, 04 May 2017
    Можете попробовать собрать master/ последний коммит?
    только если соберется - это сосвсем будет нестабильная версия, ее лучше не использовать
  • https://t.me/clickhouse_ru
  • @smiren ↶ Reply to #13631 #13634 03:28 PM, 04 May 2017
    Чтобы в конце-концов, колотить/экономить неиллюзорное бабло на CH и вполне себе откровенно
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13635 03:30 PM, 04 May 2017
    Наверное просто потому, что хочется сказать спасибо чем-то большим чем стакан пива разработчикам?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13636 03:31 PM, 04 May 2017
    а я упор на "личная" просто потому, что я рядовой инженер и не имею права публично говорить что-то от лица работодателя. сугубо legal оговорка в публичном общении.
  • https://t.me/clickhouse_ru
    @proller ↶ Reply to #13631 #13637 03:33 PM, 04 May 2017
    всякие pet project и личные интересы разные бывают, сейчас в интернетах можно много чего пособирать-поанализировать. ну и всякие датчики, логи и прочие данные с кофеварок-холодильников...
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13638 03:34 PM, 04 May 2017
    именно так, у меня pet проект - https://github.com/pavel-odintsov/fastnetmon
    GitHub - pavel-odintsov/fastnetmon: FastNetMon - very fast DDoS sensor with sFlow/Netflow/IPFIX/SPAN support

    FastNetMon - very fast DDoS sensor with sFlow/Netflow/IPFIX/SPAN support - GitHub - pavel-odintsov/fastnetmon: FastNetMon - very fast DDoS sensor with sFlow/Netflow/IPFIX/SPAN support

  • @iamigor #13639 03:34 PM, 04 May 2017
    я логи телеграма джаст фо фан в кх запихнул. как раз одна широкая табличка получилась
  • @smiren ↶ Reply to #13637 #13640 03:35 PM, 04 May 2017
    Ну да, моя кофеварка где-то ярд логов генерирует за месяц
  • @lexa_work #13641 04:02 PM, 04 May 2017
    на самом деле, с учетом clickhouse-local, вполне допускаю использование clickhouse где-то рядом с sqlite, т.е. для личных хобби проектов вполне себе
  • @lexa_work #13642 04:02 PM, 04 May 2017
    и дело не только в объемах обрабатываемых данных
  • @lexa_work #13643 04:03 PM, 04 May 2017
    просто удобно и привычно может быть
  • https://t.me/clickhouse_ru
    @rheinx #13644 04:04 PM, 04 May 2017
    Вот кстати по поводу clickhouse-local. А он типы данных сам определяет или там все поля стринговые получаются?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13645 04:04 PM, 04 May 2017
    основа умного дома и интернета вещей - да!
  • https://t.me/clickhouse_ru
    @finio #13646 04:18 PM, 04 May 2017
    что потом делать с этими данными из умного дома? :)
  • https://t.me/clickhouse_ru
    @proller #13647 04:18 PM, 04 May 2017
    СЕЛЕКТИТЬ!
  • @x25ru #13648 04:19 PM, 04 May 2017
    Обучать нейросеть и заваривать заранее на основе твоих предпочтений :)
  • @x25ru #13649 04:19 PM, 04 May 2017
    кофе
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13650 04:20 PM, 04 May 2017
    "мы им посылаем сигналы, а они под это танцуют и называют дабстеп"
  • https://t.me/clickhouse_ru
    Собираю с последним коммитом. Теперь ошибка в другом месте
  • https://t.me/clickhouse_ru
    @proller #13652 04:32 PM, 04 May 2017
    какая?
  • https://t.me/clickhouse_ru
    @dmitryluhtionov #13653 04:33 PM, 04 May 2017
    /tmp/usr/ports/databases/clickhouse/work/ClickHouse-1.1.54214-testing/dbms/src/Storages/ColumnsDescription.cpp:110:32: error: non-const lvalue reference to type 'Pos' (aka 'const char *') cannot bind to a value of unrelated type 'char *'
    if (!expr_parser.parse(begin, end, default_expr, max_parsed_pos, expected))
    ^~~~~
    /tmp/usr/ports/databases/clickhouse/work/ClickHouse-1.1.54214-testing/dbms/src/Parsers/IParserBase.h:14:22: note: passing argument to parameter 'pos' here
    bool parse(Pos & pos, Pos end, ASTPtr & node, Pos & max_parsed_pos, Expected & expected);
    ^
    1 error generated.
    *** [dbms/CMakeFiles/dbms.dir/src/Storages/ColumnsDescription.cpp.o] Error code 1
  • https://t.me/clickhouse_ru
    @proller #13654 04:35 PM, 04 May 2017
    понятно, пора поднимать виртуалку.
  • https://t.me/clickhouse_ru
    @dmitryluhtionov #13655 04:39 PM, 04 May 2017
    @prll: Можно будет обращаться по вопросам clickouse ? Хочу добавить функции для работы с MAC адресами.
  • https://t.me/clickhouse_ru
    @proller #13656 04:44 PM, 04 May 2017
    да
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13657 04:47 PM, 04 May 2017
    Плюс за маки)
  • https://t.me/clickhouse_ru
    @dmitryluhtionov #13658 04:48 PM, 04 May 2017
    планируются функции, аналогичные IPv4NumToString(num) и IPv4StringToNum(s)
  • https://t.me/clickhouse_ru
    @dmitryluhtionov #13659 04:48 PM, 04 May 2017
    только с Uint64
  • https://t.me/clickhouse_ru
    @dmitryluhtionov #13660 04:49 PM, 04 May 2017
    ну и вытягивание vendor oui
  • https://t.me/clickhouse_ru
    @dmitryluhtionov #13661 04:49 PM, 04 May 2017
    для начала, хотелось бы просто собрать clickhouse :)
  • https://t.me/clickhouse_ru
    @orantius ↶ Reply to #13660 #13662 04:53 PM, 04 May 2017
    вы имеете в виду кусок мака или словарь на базе oui.txt?
  • https://t.me/clickhouse_ru
    @dmitryluhtionov #13663 04:53 PM, 04 May 2017
    кусок MAC'а
  • https://t.me/clickhouse_ru
    @dmitryluhtionov #13664 04:53 PM, 04 May 2017
    первые три октета
  • https://t.me/clickhouse_ru
    @alexanderzaitsev #13665 05:20 PM, 04 May 2017
    А нету ли секретного range_hashed layout-a для словарей, в котором бы в качестве min/max можно было бы не только даты использовать, но и числовые типы?
  • https://t.me/clickhouse_ru
    @proller ↶ Reply to #13661 #13666 08:35 PM, 04 May 2017
    постараюсь завтра сделать фикс, уже в виртуалке варится..
  • https://t.me/clickhouse_ru
    @dmitryluhtionov #13667 08:35 PM, 04 May 2017
    заранее спасибо
  • 05 May 2017 (52 messages)
  • https://t.me/clickhouse_ru
    @proller #13668 12:25 AM, 05 May 2017
    вот теперь должно.
  • @TanVD #13669 09:10 AM, 05 May 2017
    А есть ли функция для получения размера таблицы в мб?
  • @iamigor #13670 09:10 AM, 05 May 2017
    formatReadableSize натравить на system.parts
  • @iamigor #13671 09:10 AM, 05 May 2017
    ну либо /1024/1024 %)
  • @TanVD #13672 09:11 AM, 05 May 2017
    А, не, необязательно в мб, главное чтобы не в строчках)
  • @iamigor #13673 09:12 AM, 05 May 2017
    > не в строчках
    ээ. тогда formatReadableSize не подойдет, там строкой MiB дописывается. ну делите на двойку в нужной степени тогда
  • @iamigor #13674 09:12 AM, 05 May 2017
    select sum(bytes)/1024/1024 from system.parts where active = 1 and database = 'foo' and table = 'bar';
  • @TanVD #13675 09:13 AM, 05 May 2017
    Мм... Я в общем имел в виду размер таблицы на диске) Он в system.parts видимо лежит, спасибо :)
  • @TanVD #13676 09:17 AM, 05 May 2017
    Да, спасибо большое)
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13677 12:07 PM, 05 May 2017
    Скажите пожалуйста в clickhouse вначале select отрабатывает а потом where?
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13678 12:08 PM, 05 May 2017
    select
    concat('435', toString(country)) as country_test
    from
    banner_history_segments
    where
    country_test = '435BLR'
    limit
    100
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13679 12:08 PM, 05 May 2017
    в базе есть толко Country = 'BLR' ('435BLR' нет), а он находит и выводит 100 строк
  • https://t.me/clickhouse_ru
    @burkostya #13680 12:09 PM, 05 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @orantius ↶ Reply to #13677 #13681 12:14 PM, 05 May 2017
    можно считать, что все определенные алиасы подставляются в места использования, потом запрос исполняется.
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13682 12:14 PM, 05 May 2017
    то есть все таки кликхаус работает по другому в отличии от mysql. вначале селект потом where, т.к. в mysql наоборот
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13683 12:17 PM, 05 May 2017
    или это только с алиасами такое поведение?
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13685 12:17 PM, 05 May 2017
    where с алиасами работает как с оригинальными полями таблицы
  • https://t.me/clickhouse_ru
    @orantius #13686 12:18 PM, 05 May 2017
    потому что все определенные алиасы подставляются в места использования, потом запрос исполняется.
  • https://t.me/clickhouse_ru
    @orantius #13687 12:18 PM, 05 May 2017
    поля и алиасы в данном случае это просто некоторые имена имеющие определенный тип.
  • https://t.me/clickhouse_ru
    @orantius #13688 12:20 PM, 05 May 2017
    в этом смысле кликхаусный sql более продвинут, т.к. в нем можно алиасить почти все почти везде, и запрос все равно работает.
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13689 12:20 PM, 05 May 2017
    но утверждение что вначале select а потом where верно? то есть поведение оличное от mysql
  • https://t.me/clickhouse_ru
    @orantius #13690 12:21 PM, 05 May 2017
    "в начале идет" - в тексте запроса?
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13691 12:21 PM, 05 May 2017
    пример выше скинул
  • https://t.me/clickhouse_ru
    @orantius #13692 12:22 PM, 05 May 2017
    вы понимаете разницу между парсингом запроса и его исполнением?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13693 12:23 PM, 05 May 2017
    я вообще не представляю как бы кликхаус работал, если бы он сначала выгребал петабайты данных
  • https://t.me/clickhouse_ru
    @kshvakov ↶ Reply to #13691 #13694 12:23 PM, 05 May 2017
    нет, считайте что ваш запрос
    select
    concat('435', toString(country)) as country_test
    from
    banner_history_segments
    where
    concat('435', toString(country)) = '435BLR'
    limit
    100
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13695 12:23 PM, 05 May 2017
    а потом накладывал where =)
  • https://t.me/clickhouse_ru
    то есть нужно называть алиас не так как оригинальная колонка
  • https://t.me/clickhouse_ru
    @orantius ↶ Reply to #13696 #13697 12:26 PM, 05 May 2017
    да, это обычно заканчивается плохо.
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13698 12:31 PM, 05 May 2017
    СПАСИБО!)
  • https://t.me/clickhouse_ru
    @inv2004 #13699 12:57 PM, 05 May 2017
    Вопрос: как сбросить содержимое Memory таблицы ?
  • @iamigor #13700 01:17 PM, 05 May 2017
    дропнуть и создать заново?
  • @iamigor #13701 01:18 PM, 05 May 2017
    если не хочется структуру лишний раз указывать, то так:

    CREATE TABLE mem_ AS mem;
    DROP TABLE mem;
    RENAME TABLE mem_ TO mem;
  • https://t.me/clickhouse_ru
    @inv2004 #13702 01:19 PM, 05 May 2017
    Да, это понятно , но не особо красиво.
  • @Nvarchar495 #13703 01:44 PM, 05 May 2017
    650 членов )
  • https://t.me/clickhouse_ru
    @mangoat #13704 02:03 PM, 05 May 2017
    подскажите пожалуйста дампы из КХ можно импортнуть в mysql?
  • https://t.me/clickhouse_ru
    @mangoat #13705 02:03 PM, 05 May 2017
    хочу поэкспериментировать с производительностью
  • https://t.me/clickhouse_ru
    @mangoat #13706 02:04 PM, 05 May 2017
    джойню две таблицы по 30к записей каждая, по ряду параметров + регэкс, как-то долго
  • https://t.me/clickhouse_ru
    @orantius #13707 02:09 PM, 05 May 2017
    tab separated в mysql не заливается?
  • https://t.me/clickhouse_ru
    @inv2004 #13708 03:10 PM, 05 May 2017
    Ещё вопрос, если можно. По доке не удаётся понять что такое local-mode. Вопрос снимается - надо было просто запустить :)
  • https://t.me/clickhouse_ru
    @maxlapshin #13709 04:27 PM, 05 May 2017
    Коллеги, а неужели никто не хочет подать доклад на РИТ?
  • https://t.me/clickhouse_ru
    @maxlapshin #13710 04:29 PM, 05 May 2017
    ни одного доклада в заявках не вижу
  • @milovidov_an #13711 04:29 PM, 05 May 2017
    Можно подать доклад. Пока ещё никто не обращался. Времени немного осталось - ещё надо посмотреть, не пересечётся ли с какими-то другими мероприятиями. Организаторы заинтересованы в нашем докладе?
  • https://t.me/clickhouse_ru
    @maxlapshin #13712 04:30 PM, 05 May 2017
    да, конечно!
  • https://t.me/clickhouse_ru
    @maxlapshin #13713 04:32 PM, 05 May 2017
    подавай
  • @milovidov_an #13714 04:34 PM, 05 May 2017
    Хорошо - сейчас сориентируюсь по расписанию...
  • https://t.me/clickhouse_ru
    @its_eapotapov #13715 05:25 PM, 05 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @inv2004 #13716 09:10 PM, 05 May 2017
    Планируется ли тип данных Time с точностью до ms ?
  • https://t.me/clickhouse_ru
    @inv2004 #13717 09:10 PM, 05 May 2017
    А то не очень удобно всё в UInt32
  • https://t.me/clickhouse_ru
    @the_real_jkee #13718 09:26 PM, 05 May 2017
    Пока что нет, но запросов много. Поищи на github таск, или создай
  • https://t.me/clickhouse_ru
    @inv2004 #13719 09:34 PM, 05 May 2017
    Спасибо.
  • https://t.me/clickhouse_ru
    @inv2004 #13720 09:37 PM, 05 May 2017
    Вопрос: можно ли как-то применить функцию при insert из csv файла? А то сейчас приходится загонять во временную таблицу и потом в основную преобразовывая string в uint
  • 06 May 2017 (15 messages)
  • @55059920 #13721 08:28 AM, 06 May 2017
    Joined.
  • @saintnox #13722 11:58 AM, 06 May 2017
    Joined.
  • @222945462 #13723 02:35 PM, 06 May 2017
    Joined.
  • @milovidov_an #13724 02:52 PM, 06 May 2017
    Нет, сейчас нельзя. Самому часто нужна такая возможность и приходится использовать временную таблицу.
  • За этот реквест можно где-нибудь проголосовать?
  • https://t.me/clickhouse_ru
    @rheinx #13726 04:10 PM, 06 May 2017
    Можно проголосовать коммитами)
  • @roman_kolchin #13727 04:11 PM, 06 May 2017
    И в эту же тему вопрос — сейчас на сервер КХ можно подложить CSV/TSV с тем чтобы потом сделать select * from "этот csv/tsv"? Как я понял локальный КХ это умеет. А серверный КХ?
  • В плюсах вообще не секу.
  • @roman_kolchin #13729 04:12 PM, 06 May 2017
    Вообще кто-нибудь из-вне пробовал коммититить в код КХ? Там сильно запутанная кодовая база?
  • @iamigor ↶ Reply to #13729 #13730 04:15 PM, 06 May 2017
    я тоже не секу, но код клёвый, в целом понятно
  • с какой целью изучали? понять как оно работает "под капотом"? или искали скрытые фичи? :)
  • @iamigor #13732 04:17 PM, 06 May 2017
    и то, и другое. и хотел сделать функции для работы с UUIDами (ушла пара вечеров). только полез мерджить, как выяснил, что Алексей их сделал, не сговариваясь %)
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #13729 #13733 04:17 PM, 06 May 2017
    Для девелоперов есть дока

    https://github.com/yandex/ClickHouse/blob/master/doc/developers/architecture.md
    yandex/ClickHouse

    ClickHouse is a free analytic DBMS for big data.

  • Тоже умеет. Движок таблиц File.
  • Спасибо. А он при чтении лочит файлы-источники? Если нет, то его же можно для импорта использовать на стороне сервера?
  • 07 May 2017 (10 messages)
  • @milovidov_an #13736 12:45 AM, 07 May 2017
    Насколько я помню, не лочит. Да, можно использовать для импорта - подложить файл и Insert select. Преимущества перед запуском clickhouse-client для импорта локально на сервере - нет.
  • https://t.me/clickhouse_ru
    @its_eapotapov #13737 05:06 AM, 07 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @its_eapotapov #13738 05:06 AM, 07 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @its_eapotapov #13739 05:07 AM, 07 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @umaxfun ↶ Reply to #13644 #13740 07:23 AM, 07 May 2017
    Надо сначала схему ему дать, а там как обычно все
  • https://t.me/clickhouse_ru
    @Enapiuz #13741 03:07 PM, 07 May 2017
    Joined.
  • @roman_kolchin #13742 04:53 PM, 07 May 2017
    @milovidov_an Алексей, подскажите, пожалуйста, сделать публичный ишью-трекер все еще планируется?
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #13742 #13743 05:04 PM, 07 May 2017
    альтернатива тому что есть на гитхабе?
  • Я не в курсе какой статус у гитхаба. Мой вопрос об актуальном списке планируемых доработок и о текущей работе, список зареганных багов.
  • @milovidov_an #13745 07:08 PM, 07 May 2017
    Да, планируется публичный трекер. По крайней мере нам его обещали сделать.
  • 08 May 2017 (110 messages)
  • https://t.me/clickhouse_ru
    @inv2004 #13746 03:52 AM, 08 May 2017
    /stat@combot
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @inv2004 #13749 03:53 AM, 08 May 2017
    Сделал сравнение КХ с kdb. Извиняюсь за формат в котором это :)
  • https://t.me/clickhouse_ru
    @inv2004 #13750 03:56 AM, 08 May 2017
    Вывод - с диска КХ конечно огонь. Но, на запросах из памяти оно отстаёт на порядки, из-за отсутствия индексов.
  • https://t.me/clickhouse_ru
    @x4mmm #13751 04:18 AM, 08 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @x4mmm #13752 04:27 AM, 08 May 2017
    А нормально что при сборке КХ съедает 12+ГБ диска? База данных должна хранить данные, но это же должны быть мои данные а не ее?
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
  • @milovidov_an #13756 04:52 AM, 08 May 2017
    Это нормально. Сам исполняемый файл clickhouse имеет размер чуть больше 500 MB. Из этого большая часть - отладочная информация. Без неё в районе 150 MB.
    Остальное - всякие тестовые программы, каждая из которых содержит (статически линкует) тот же код.

    При сборке .deb пакетов сейчас сделано так, что отладочная информация идёт отдельно (в отдельном -dbg пакете, который можно не устанавливать).

    Чтобы ускорить линковку тестовых программ и уменьшить место, которое для них требуется, есть возможность включить опцию динамической линковки со своими библиотеками. Также тестовые программы можно не собирать (скорее всего, они вам не нужны). Для этого, пишите make clickhouse вместо make.

    Размер кода в районе 150 MB получается из-за большого количества инстанцирований шаблонов.
  • https://t.me/clickhouse_ru
    @x4mmm #13757 05:04 AM, 08 May 2017
    Спасибо, попробую. У меня на ноуте дев виртуалка была на 20 гигов. На постгрес и Машу хватало с запасом :)
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #13750 #13758 05:07 AM, 08 May 2017
    => вопрос: можно ли в перспективе ожидать какой-то MemoryMergeTree или какой-то параметр для придудительного удержания в памяти части MergeTree? Судя по google.groups, не только у меня такая задача.
  • @milovidov_an #13759 05:20 AM, 08 May 2017
    Пока не планировали. Может быть будет как-то согласовываться с задачей про кэширование промежуточных результатов выполнения запроса.
  • https://t.me/clickhouse_ru
    @tufedtm #13760 08:07 AM, 08 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @tufedtm #13761 08:13 AM, 08 May 2017
    не нашел в доках где можно указать разделитель (;) для столбцов в строке при импорте данных в кх
    INSERT INTO data FORMAT CSV
    такое есть?
  • https://t.me/clickhouse_ru
    @citronix #13762 08:26 AM, 08 May 2017
    нет
  • https://t.me/clickhouse_ru
    @putpixel #13763 09:46 AM, 08 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @dmitryluhtionov #13764 10:08 AM, 08 May 2017
    @prill: Добрый день. Сделал pull request
  • @f1yegor #13765 12:57 PM, 08 May 2017
    привет всем. насколько я понимаю при insert from select позиционные параметры не поддерживаются. и надо при несоответствии имен переназывать их name_in_select_table AS name_in_insert_table
  • @f1yegor #13766 12:57 PM, 08 May 2017
    правильно?
  • @f1yegor #13767 12:58 PM, 08 May 2017
    но у меня все равно возникает ошибка There is no column with name name_in_insert_table.
  • @f1yegor #13768 01:08 PM, 08 May 2017
    я создавал когда-то баг https://github.com/yandex/ClickHouse/issues/390, по нему есть коммит, но не понятно до конца как это сейчас работает
    Position arguments in insert · Issue #390 · yandex/ClickHouse

    It seems like a bug to me. I assume position arguments in INSERT FROM SELECT statement should work. to reproduce: ClickHouse client version 1.1.54134. Connecting to localhost:9000. Connected to Cli...

  • @f1yegor #13769 01:29 PM, 08 May 2017
    или насколько я понимаю это уже в мастере, но зарелизится в версии v1.1.54233, т.ч. пока поведение должно быть старым
  • @iamigor #13770 01:34 PM, 08 May 2017
    это еще 7 марта закоммитили, оно уже давно должно быть в стабильной
  • @iamigor #13771 01:34 PM, 08 May 2017
    проверил на v1.1.54198
  • @iamigor #13772 01:35 PM, 08 May 2017
    :) insert into test2 select * from test1;
    :) insert into test2 (key2, value2) select key1, value1 from test1;

    оба этих случая работают норм )
  • @f1yegor #13773 02:09 PM, 08 May 2017
    обновился.
  • @f1yegor #13774 02:09 PM, 08 May 2017
    INSERT INTO product_events2
    SELECT ts, ***** from old_table.
  • @f1yegor #13775 02:09 PM, 08 May 2017
    DB::Exception: Types must be the same for columns at same position. Column product_price has type Float32, but column product_name has type String.
  • @f1yegor #13776 02:10 PM, 08 May 2017
    это выглядит как бага? т.к. позиционных аргументов тут нет
  • @iamigor #13777 02:15 PM, 08 May 2017
    хм. а если ручками перечислить все столбцы events2 перед selectом?
  • @f1yegor #13778 02:18 PM, 08 May 2017
    вроде нашел как воспроизвести, сейчас обновлю иссью. ну мне не очень хочется 80+ колонок руками писать (
  • @iamigor #13779 02:19 PM, 08 May 2017
    жесть)) представляю
  • @iamigor #13780 02:19 PM, 08 May 2017
    там еще сегфолт происходит, если в select-запросе больше столбцов, чем надо %)
  • @f1yegor #13781 02:25 PM, 08 May 2017
    Position arguments in insert · Issue #390 · yandex/ClickHouse

    It seems like a bug to me. I assume position arguments in INSERT FROM SELECT statement should work. to reproduce: ClickHouse client version 1.1.54134. Connecting to localhost:9000. Connected to Cli...

  • @f1yegor #13782 02:25 PM, 08 May 2017
    можешь сюда же дописать про segfault?
  • https://t.me/clickhouse_ru
    @BloodJazMan #13783 02:36 PM, 08 May 2017
    =)) я похоже запустил clickhouse вместе с zetcd

    https://gist.github.com/Slach/7d2e15fea5485e42a805c3fb73840c63
  • @iamigor #13784 02:38 PM, 08 May 2017
    ништяк! репликация нормально работает? может, опишете, че как настроить статьёй какой-нибудь?)
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13785 02:39 PM, 08 May 2017
    Добрый день, подскажите может есть какие-то инструменты для умных миграций бд? для билдирования версионности. хотим использовать liquibase (у нас 2 типа бд - mysql и clickhouse). че делать? может кто сталкивался
  • https://t.me/clickhouse_ru
    @alexkrupin #13786 02:51 PM, 08 May 2017
    Ликвибейс не подойдет, так как апдейтов в кликхаусе нет
  • https://t.me/clickhouse_ru
    @alexkrupin #13787 02:52 PM, 08 May 2017
    Ликвибейс в своих системных таблицах хранит инфу, обновляет
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13788 02:59 PM, 08 May 2017
    а что использовать то?
  • https://t.me/clickhouse_ru
    @BloodJazMan #13789 02:59 PM, 08 May 2017
    Репликацию проверю напишу
  • @iamigor ↶ Reply to #13788 #13790 03:06 PM, 08 May 2017
    собственные инструменты?)
  • https://t.me/clickhouse_ru
    у нас задача такая. мы делаем правки на ui (php) вносим изменения в бд (в два типа бд). Миграции собираются и во время билда группируются. другая команда платформа (java) эти миграции может легко выполнить откатить на своем дев сервере)
  • https://t.me/clickhouse_ru
    @orantius #13792 03:30 PM, 08 May 2017
    написать свой extension, метаданные хранить в mysql.
  • https://t.me/clickhouse_ru
    @orantius #13793 03:31 PM, 08 May 2017
    например.
  • https://t.me/clickhouse_ru
    опиши подробнее плиз. пока не понимаю
  • @lexa_work #13795 03:41 PM, 08 May 2017
    вникнуть в принцип работы подобных решений, и придумать свое решние для работы с CH и MySQL
  • @lexa_work #13796 03:41 PM, 08 May 2017
    как тут еще подробней описать
  • @lexa_work #13797 03:42 PM, 08 May 2017
    у СМИ2 упоминалось их собственное решение по миграции CH на PHP
  • https://t.me/clickhouse_ru
    тут дело не в самих миграциях а в том что те миграции которые реализованы сми2 или laravel php они как обертка orm исполняются через php. а java разрабы не будет ставить себе php им нужен какой-то инструмент чтобы накатить и откатиь миграции
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13799 03:52 PM, 08 May 2017
    ликвибейс как замена php шным миграциям. но нету кх. в общем надо думать я так понял никто такого не реализовывал
  • @lexa_work #13800 03:52 PM, 08 May 2017
    я сейчас костылю свою балалайку
  • @lexa_work #13801 03:53 PM, 08 May 2017
    по мотивам sqitch на базе ansible
  • @lexa_work #13802 03:53 PM, 08 May 2017
    но есть ощущение, что что зря так сделал
  • @lexa_work #13803 03:53 PM, 08 May 2017
    надо будет выносить на что-то более независимое
  • https://t.me/clickhouse_ru
    удобная штука
  • @lexa_work #13805 03:56 PM, 08 May 2017
    в логах множество записей вида:
    2017.05.08 18:52:27.437686 [ 52 ] <Warning> mprobe.sccp_msu_sharded (StorageReplicatedMergeTree, CleanupThread): Couldn't remove 20170508_20170508_4220883_4220883_0 from ZooKeeper: no node
    Есть предположение от чего такое? что нужно с этим делать?
  • https://t.me/clickhouse_ru
    @orantius #13806 03:56 PM, 08 May 2017
    >а java разрабы не будет ставить себе php им нужен какой-то инструмент чтобы накатить и откатиь миграции
    так может они его сделают?
  • https://t.me/clickhouse_ru
    смысл в том чтобы наши миграции были единные. они захотели удалить поле - взяли миграцию создали запушили. мы её взяли и забрали и тоже выполнили на своей базы + своя миграция. единная миграционная система двух команд
  • @iamigor #13808 04:05 PM, 08 May 2017
    ну можно CLI-утилитку на том же пхп сделать, вон phabricator (arcanist) как-то же используется непхпшниками
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13809 04:07 PM, 08 May 2017
    хз. буду думать
  • https://t.me/clickhouse_ru
    @Unkledolan #13810 04:27 PM, 08 May 2017
    MapD Open Sources GPU-Powered Database | OmniSci

    Since starting work on MapD more than five years ago while taking a database course at MIT, I had always dreamed of making the project open source. It is thus with great pleasure to announce that today our company is open sourcing the MapD Core database and associated visualization libraries, effective immediately.

  • https://t.me/clickhouse_ru
    это реклама новой базы данных?) или что это - можно кратко посмотрел не понял
  • https://t.me/clickhouse_ru
    @dmitryluhtionov #13812 04:42 PM, 08 May 2017
    @milovidov_an Добрый вечер. Я вижу, Вы смотрели pull request. Там все нормально ?
  • https://t.me/clickhouse_ru
    @inv2004 #13813 05:15 PM, 08 May 2017
    Это просто mapd, оно действительно очень быстрое, но довольно узкоспециализированно.
  • https://t.me/clickhouse_ru
    быстрее чем кх ? )
  • https://t.me/clickhouse_ru
    @inv2004 #13815 05:19 PM, 08 May 2017
    Конечно, оно даже быстрее kdb
  • https://t.me/clickhouse_ru
    Summary of the 1.1 Billion Taxi Rides Benchmarks

    Benchmarks & Tips for Big Data, Hadoop, AWS, Google Cloud, PostgreSQL, Spark, Python & More...

  • https://t.me/clickhouse_ru
    @its_eapotapov #13817 05:20 PM, 08 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    не успели с кх поработать а тут уже MapD ))
  • https://t.me/clickhouse_ru
    @inv2004 #13819 05:21 PM, 08 May 2017
    Только хотел эту ссылку :) по мне так кажется, что дотянуть КХ до схожих порядков можно создав engine с индексами в памяти. О чем я чуть выше писал.
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13820 05:21 PM, 08 May 2017
    Сейчас придут ребята с яндекс и забанят всех ))
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #13818 #13821 05:21 PM, 08 May 2017
    Mapd это не новая технология. Ничего удивительного нет, если хранить данные в памяти gpu.
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13822 05:23 PM, 08 May 2017
    круто. но мы только вот вот переезжаем на прод кликхаус пока переписывали часть функционала
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13823 05:23 PM, 08 May 2017
    а вы тут со своим mapd )) может когда нибудь )))
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13824 05:23 PM, 08 May 2017
    я так понимаю через GPU это нехилые сервера нужны
  • https://t.me/clickhouse_ru
    @inv2004 #13825 05:25 PM, 08 May 2017
    Для gpu не нужны нехилые сервера.
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13826 05:25 PM, 08 May 2017
    я в плане дороговизны обработки через gpu
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13827 05:25 PM, 08 May 2017
    такие машинки не дешевые
  • https://t.me/clickhouse_ru
    @kemsa ↶ Reply to #13825 #13828 05:26 PM, 08 May 2017
    для них нужны гпу по цене нехилых серверов)
  • https://t.me/clickhouse_ru
    @inv2004 #13829 05:29 PM, 08 May 2017
    Gpu не особо дорогие вроде. Около 4к.
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13830 05:29 PM, 08 May 2017
    намного дороже чисто процессорной обработки
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13831 05:29 PM, 08 May 2017
    если уже и переходить то из-за безысходности
  • @shinebell #13832 05:30 PM, 08 May 2017
    осталось еще сюда цену mapd прибавить
  • https://t.me/clickhouse_ru
    @kemsa #13833 05:30 PM, 08 May 2017
    и скалируется гораздо сложнее, но зато можно майнить битки во время простоя
  • @shinebell #13834 05:30 PM, 08 May 2017
    и там он на теслах гоняет
  • @shinebell #13835 05:30 PM, 08 May 2017
    которые по 800 тысяч руб стоят
  • @shinebell #13836 05:30 PM, 08 May 2017
    за карточку
  • @shinebell #13837 05:30 PM, 08 May 2017
    400-800
  • https://t.me/clickhouse_ru
    @dvolodin #13838 05:32 PM, 08 May 2017
    тесла за 800k всяк дешевле 20 лишних серверов
  • @shinebell #13839 05:32 PM, 08 May 2017
    так у него там не одна карточка
  • @shinebell #13840 05:32 PM, 08 May 2017
    если что )
  • https://t.me/clickhouse_ru
    @dvolodin #13841 05:33 PM, 08 May 2017
    и?
  • @shinebell #13842 05:33 PM, 08 May 2017
    а 8
  • https://t.me/clickhouse_ru
    @inv2004 #13843 05:34 PM, 08 May 2017
    Ну xeon топовый вроде тоже под 3k.
  • https://t.me/clickhouse_ru
    @dvolodin #13844 05:34 PM, 08 May 2017
    энергетика тоже денег стоит
  • @shinebell #13845 05:34 PM, 08 May 2017
    подозреваю что цена мапд
  • @shinebell #13846 05:34 PM, 08 May 2017
    будет как 20 серверов )
  • @291662242 #13847 05:35 PM, 08 May 2017
    как я понимаю mapd distributed вообще только появился (3.0) ? т.е. до этого было single machine
  • @291662242 #13848 05:36 PM, 08 May 2017
    и вообще доступен только в их enterprise версии
  • @shinebell #13849 05:36 PM, 08 May 2017
    But having said that, Mostak was willing to put some error bars on the top-end price. On a system with eight Tesla K80s, which might cost somewhere between $60,000 to $70,000, the license for the MapD stack would be “a small multiple” of this hardware cost.
  • https://t.me/clickhouse_ru
    @inv2004 #13850 05:37 PM, 08 May 2017
    Если посмотреть на тот блог, то видно, что в тесте после gpu идёт база на cpu с несильно отстающими результами.
  • @shinebell #13851 05:37 PM, 08 May 2017
    а он с юмором
  • @iamigor ↶ Reply to #13833 #13852 08:15 PM, 08 May 2017
    ыыыыы, звучит как отличный бизнес-план!
  • Я в статье описал концепцию с миграциями, и открыл наш тулл для миграции - он не доделан но вполне рабочий... мы им пользуемся в проде.

    Он очень похож на анзибл и д.р инструменты, знаний php там не требуется, в git лежат правила.
    Каждое правило состоит из sql's которые накатываем и с список которые откатываем.
    php самый минимум в правилах/рецептах.
    Сейчас доработка не планируется - т.к ждем из коробки решения в самом CH
  • Только 5 минут посмотрел. Всё ок, но нужна пара мелких исправлений. Наверное сам доведу, или коллега, на которого это назначено.
  • @335648777 #13855 11:29 PM, 08 May 2017
    Joined.
  • @335648777 #13856 11:29 PM, 08 May 2017
    Hey
  • 09 May 2017 (63 messages)
  • @ignatov2k #13857 04:01 AM, 09 May 2017
    Joined.
  • @f1yegor ↶ Reply to #13767 #13858 08:32 AM, 09 May 2017
    что-то не работает и по-разному, когда я переставляю колонки. в старой версии.
  • @f1yegor #13859 08:54 AM, 09 May 2017
    1.1.54159
  • @f1yegor #13860 10:17 AM, 09 May 2017
    DB::Exception: There is no column with name user_agent_device. There are columns: ts, event_id, event_type, ..., user_agent_browser, user_agent_browser_version, user_agent_device, user_agent_os
  • @f1yegor #13861 10:24 AM, 09 May 2017
    т.е. поиском в этом же сообщеини я ее нахожу
  • https://t.me/clickhouse_ru
    @BloodJazMan #13862 11:43 AM, 09 May 2017
    всем привет
    объясните за тему макросов??
    https://clickhouse.yandex/reference_ru.html#Creating%20replicated%20tables ?

    можно ли все таки вместо имени реплики и id шарда что то использовать кроме как определять macros в каждом отдельном конфиге для каждого сервера?
    Документация ClickHouse | Документация ClickHouse

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • @ztlpn #13863 11:50 AM, 09 May 2017
    Использовать макросы необязательно - можно просто писать ReplicatedMergeTree('/clickhouse/tables/table', 'replica1', ...). Даже zk-путь таблицы в принципе может быть любой (префикс /clickhouse/tables это соглашение).
  • @ztlpn #13864 11:51 AM, 09 May 2017
    Преимущество макросов в том, что DDL получается одинаковым на всех серверах.
  • https://t.me/clickhouse_ru
    @BloodJazMan #13865 11:56 AM, 09 May 2017
    уточню вопрос, то что хочется уникальный путь в пределах шарда, это понятно
    но может просто можно этот самый {shard} не из макросов брать? а через какой нибудь запрос из SELECT shard_id FROM system.clusters ??
  • @ztlpn #13866 12:09 PM, 09 May 2017
    Всё равно же придётся на основании чего-то вычислять номер шарда для конкретного хоста. Можно например на основании хостнейма. То есть получается что-то вроде ReplicatedMergeTree(concat('/clickhouse/tables/', someFunction(hostName()), '/table'), ...). Вы о таком говорите?
  • @ztlpn #13867 12:10 PM, 09 May 2017
    Уточню - сейчас так сделать нельзя :)
  • https://t.me/clickhouse_ru
    @BloodJazMan #13868 12:25 PM, 09 May 2017
    да, я об этом говорю
  • https://t.me/clickhouse_ru
    @BloodJazMan #13869 12:26 PM, 09 May 2017
    а нельзя как то macros.xml
    например сделать шаблоном? чтобы можно было например там значения переменных окружения использовать??

    очень не хочется городить свой docker образ поверх стандартного
  • https://t.me/clickhouse_ru
    @BloodJazMan #13870 12:27 PM, 09 May 2017
    Алекс =) кстати мы с вами будет похоже вместе на clickhouse вопросы на stackoverflow отвечать =) я там подписался, чтобы доку чаще перечитывать, отвечая людям
  • @ztlpn #13871 12:34 PM, 09 May 2017
    Да, stackoverflow отличная платформа, надо нам активнее там отвечать.
  • @ztlpn #13872 12:36 PM, 09 May 2017
    С docker можно вот так поступить - замапить директорию с хост-системы в /etc/clickhouse-server/config.d/, и положить туда macros.xml каким-нибудь ansible-ом. Немного отходит от идеологии контейнеризации, ну да ладно.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13873 12:39 PM, 09 May 2017
    а у вас там просто свой тег или отдельно как-то под проект получили свое место там?
  • @ztlpn #13874 12:42 PM, 09 May 2017
    Просто тег, насколько я знаю
  • @ztlpn #13875 12:42 PM, 09 May 2017
    Newest 'clickhouse' Questions

    Stack Overflow | The World’s Largest Online Community for Developers

  • https://t.me/clickhouse_ru
    @BloodJazMan #13876 01:22 PM, 09 May 2017
    странно а почему не работают подстановки?

    в /etc/clickhouse-server/config.xml
    стоит
    <macros incl="macros" optional="true"/>

    делаю
    /etc/clickhouse-server/macros.xml
    <?xml version="1.0"?><macros><shard>ru</shard><replica>clickhouse-ru-1.local</replica></macros>

    а в config-preprocessed.xml
    получаю вместо macros пустоту
    почему?
  • @ztlpn #13877 01:26 PM, 09 May 2017
    Подстановки выполняются из /etc/metrika.xml, а дополнительные файлики надо класть в /etc/clickhouse-server/config.d/
  • https://t.me/clickhouse_ru
    @BloodJazMan #13878 01:37 PM, 09 May 2017
    спасибо

    заработало
    но почему то падает при создании таблицы

    clickhouse-us-1.local_1 | 2017.05.09 13:34:59.661461 [ 5 ] <Debug> ga2clickhouse.hits_replicated (StorageReplicatedMergeTree): Creating table /clickhouse/tables/us/hits
    clickhouse-us-1.local_1 | /home/robot-metrika-test/jenkins/workspace/clickhouse-packages-build@2/sources/contrib/libtcmalloc/src/tcmalloc.cc:286] Attempt to free invalid pointer 0x7f127c972b60
    clickhouse-us-1.local_1 | 2017.05.09 13:34:59.665835 [ 9 ] <Error> BaseDaemon: ########################################
    clickhouse-us-1.local_1 | 2017.05.09 13:34:59.666192 [ 9 ] <Error> BaseDaemon: (from thread 8) Received signal Aborted (6).
    clickhouse-us-1.local_1 | 2017.05.09 13:34:59.668073 [ 9 ] <Error> BaseDaemon: 1. /lib/x86_64-linux-gnu/libc.so.6(gsignal+0x38) [0x7f127ee0e428]
    clickhouse-us-1.local_1 | 2017.05.09 13:34:59.668207 [ 9 ] <Error> BaseDaemon: 2. /usr/bin/clickhouse-server(Poco::ThreadImpl::runnableEntry(void*)+0xa5) [0x33fb245]
    clickhouse-us-1.local_1 | 2017.05.09 13:34:59.668220 [ 9 ] <Error> BaseDaemon: 3. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76ba) [0x7f127f8be6ba]
    clickhouse-us-1.local_1 | 2017.05.09 13:34:59.668224 [ 9 ] <Error> BaseDaemon: 4. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6d) [0x7f127eedf82d]
    clickhouse-us-1.local_1 | Aborted (core dumped)
  • https://t.me/clickhouse_ru
    @BloodJazMan #13879 01:38 PM, 09 May 2017
    ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/hits', '{replica}', date, cityHash64( userId), (trackerId, date, cityHash64(userId), timestamp), 8192)

    вот такое пытался создать
  • https://t.me/clickhouse_ru
    @BloodJazMan #13880 01:38 PM, 09 May 2017
    1.1.54198
    версия сервера
  • @ztlpn #13881 01:55 PM, 09 May 2017
    Ужас какой. А так падает только при создании replicated таблиц с макросами/любых replicated таблиц/любых merge tree таблиц? Образ - официальный yandex/clickhouse-server? Ещё интересен конфиг docker-compose (через него же запускаете?) и полный CREATE TABLE. Ещё круто было бы достать core-файл и снять с него бэктрейс.
  • @ztlpn #13882 01:55 PM, 09 May 2017
    Можем переместиться в github issues, чтобы тут не флудить :)
  • https://t.me/clickhouse_ru
    @BloodJazMan #13883 01:56 PM, 09 May 2017
    Да сейчас попробую все достать и сделать issue
  • https://t.me/clickhouse_ru
    @BloodJazMan #13884 01:59 PM, 09 May 2017
    Возможно памяти не хватает в докере просто там 8 контейнеров в 2gb
  • https://t.me/clickhouse_ru
    @BloodJazMan #13885 02:00 PM, 09 May 2017
    Ну и я это дело пытаюсь с zetcd запустить вместо zookeeper
  • https://t.me/clickhouse_ru
    @inv2004 #13886 02:03 PM, 09 May 2017
    Вопрос: вопрос производительности buffer - хочется попытаться положить realtime данные через buffer без предварительной буферизации. Вопрос: где узкое место при таком подходе будет - парсинг? Может надо какой-то специфичный format указать?
  • @s4ins #13887 02:11 PM, 09 May 2017
    всем привет
    подскажите, может у кого-либо есть опыт использования Druid в продакшене? Интересует сравнение с CH на маштабе 200 млрд событий/сутки, примерно. Либо может где-то уже есть сравнения, а я просто не могу найти?
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #13887 #13888 02:21 PM, 09 May 2017
    Кажется что оно про разное совсем. Друид это в основном агрегатор, притом с отвратительным сообществом
  • https://t.me/clickhouse_ru
    @Civiloid #13889 02:21 PM, 09 May 2017
    А кликхаус - база данных для аналитики
  • @s4ins #13890 02:21 PM, 09 May 2017
    ну не совсем про разное, на мой взгляд
  • https://t.me/clickhouse_ru
    @Civiloid #13891 02:21 PM, 09 May 2017
    Самолёт с картошкой тоже можно конечно сравнить, но смысл?
  • @f1yegor #13892 02:21 PM, 09 May 2017
    точных цифер не скажу, но я друид до прода не довел. было все слишком сложно и медленно(в сравнении с кх)
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #13890 #13893 02:21 PM, 09 May 2017
    Совсем
  • https://t.me/clickhouse_ru
    @Civiloid #13894 02:22 PM, 09 May 2017
    Друид не предназначен для хранения сырых данных
  • https://t.me/clickhouse_ru
    @Civiloid #13895 02:22 PM, 09 May 2017
    А кх заточен под аналитику по сырым данным
  • https://t.me/clickhouse_ru
    @Civiloid #13896 02:22 PM, 09 May 2017
    Это разные подходы со своими особенностями
  • https://t.me/clickhouse_ru
    @vasiliyozerov #13897 02:22 PM, 09 May 2017
    Всем привет! Подскажите, пожалуйста - а КХ читает все колонки, которые в подзапросе указаны?
    К примеру, select date,event,count() from (select date,event,url) as t group by date,event;
    В данном случае колонка url не нужна, будет ли она все-таки прочитана? Судя по тестам - да, она читается. Хотелось бы просто уточнить этот момент. Благодарю.
  • https://t.me/clickhouse_ru
    @Civiloid #13898 02:23 PM, 09 May 2017
    В друид ты положил данных немного, посчитал что то и показал чиселку. Пересчитать если его по прямому назначению использовать уже не выйдет. А не по прямому можно, но ужасно медленно будет
  • https://t.me/clickhouse_ru
    @stasfilin #13899 02:25 PM, 09 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @BloodJazMan #13900 02:26 PM, 09 May 2017
    Народ, а где core dumps для КХ создаются?
  • https://t.me/clickhouse_ru
    Спасибо будем думать
  • @ztlpn ↶ Reply to #13900 #13902 02:28 PM, 09 May 2017
    Это зависит от настроек ядра - понять можно командой cat /proc/sys/kernel/core_pattern
  • https://t.me/clickhouse_ru
    @BloodJazMan #13903 02:31 PM, 09 May 2017
    |/usr/share/apport/apport %p %s %c %P

    и куда смотреть?
  • @ztlpn #13905 02:43 PM, 09 May 2017
    Хм. Вот тут пишут, что core_pattern на контейнер установить нельзя: http://stackoverflow.com/questions/39136601/changing-proc-sys-kernel-core-pattern-file-inside-docker-container Соответственно он взялся из хост-системы. Такой паттерн значит, что запускается программа apport и core-файл отправляется на её стандартный вход. Поскольку в контейнере она не установлена, видимо core-файл потерян.
    Changing /proc/sys/kernel/core_pattern file inside docker container

    How can i change /proc/sys/kernel/core_pattern file inside the docker container with out privileged mode? Are there any flags to be passed to docker daemon or docker run or anything related to Dock...

  • https://t.me/clickhouse_ru
    @BloodJazMan #13906 02:52 PM, 09 May 2017
    а я сейчас попробую это сейчас исправить

    так, обычные MergeTree создаются нормально
    падает только на ReplicatedMergeTree ...
    сейчас попробую запрос упростить как можно сильнее
  • https://t.me/clickhouse_ru
    @BloodJazMan #13907 02:52 PM, 09 May 2017
    а я сейчас попробую это сейчас исправить
  • https://t.me/clickhouse_ru
    @BloodJazMan #13908 03:16 PM, 09 May 2017
    так дело точно не в кол-ве свободной памяти
  • https://t.me/clickhouse_ru
    @BloodJazMan #13909 03:17 PM, 09 May 2017
    щас попробую zetcd на zookeper заменить
  • Я в статье коротко описал сравнение https://m.habrahabr.ru/company/smi2/blog/314558/
    Как запустить ClickHouse своими силами и выиграть джекпот

    Мы решили описать простой и проверенный путь для тех, кто хочет внедрить аналитическую СУБД ClickHouse своими силами или просто испробовать ClickHouse на...

  • https://t.me/clickhouse_ru
    @BloodJazMan #13911 03:21 PM, 09 May 2017
    да, проблема в zetcd
    =( рано я вчера порадовался
  • @iamigor #13912 03:22 PM, 09 May 2017
    :(
  • https://t.me/clickhouse_ru
    @BloodJazMan #13913 03:24 PM, 09 May 2017
    щас посмотрим что там по сети ходит... интересно же
    никто случайно для wireshark не подскажет нормального анализитора пакетов для zookeeper protocol ??
  • @iamigor #13914 03:26 PM, 09 May 2017
    сходу такой не гуглится
    можно исходники клиентов посмотреть
    http://www.arinkverma.in/2013/05/understanding-zookeeper-protocols.html вот обзорная статья какая-то нашлась
    Understanding Zookeeper protocols

    Credit : zookeeper.apache.org Zookeeper is the open sourced library of cluster membership. It is a centralized service for maintaini...

  • https://t.me/clickhouse_ru
    @BloodJazMan #13915 03:30 PM, 09 May 2017
    https://github.com/twitter/zktraffic
    щас это попробую как то прикрутить
    twitter/zktraffic

    ZooKeeper protocol analyzer and stats gathering daemon - twitter/zktraffic

  • https://t.me/clickhouse_ru
    @BloodJazMan #13917 05:11 PM, 09 May 2017
    хмм...
    я не знаю что я сделал
    но оно заработало

    <Debug> zetcd_test.test_replicated (StorageReplicatedMergeTree, RestartingThread): Activating replica.
  • https://t.me/clickhouse_ru
    @BloodJazMan #13919 05:19 PM, 09 May 2017
    Slach/clickhouse-zetcd

    Test stand for creating Clickhouse test cluster via docker and zetcd - Slach/clickhouse-zetcd

  • https://t.me/clickhouse_ru
    @BloodJazMan #13920 05:19 PM, 09 May 2017
    если у кого то есть время поиграться со стендом ... сообщите результаты в личку пожалуйста?
  • https://t.me/clickhouse_ru
    @BloodJazMan #13921 05:39 PM, 09 May 2017
    =(( ай блин это все стандартный zookeeper
  • https://t.me/clickhouse_ru
    @BloodJazMan #13922 06:06 PM, 09 May 2017
    https://github.com/yandex/ClickHouse/issues/777
    в общем ребята, посмотрите если не сложно стенд который я собрал на досуге
    clickhouse core dumped when try work over zetcd · Issue #777 · yandex/ClickHouse

    i create repo https://github.com/Slach/clickhouse-zetcd for reproducing stand clickhouse + zetcd latest clickhouse Dockerimage core dumped after run following query sudo docker-compose run clickhou...

  • 10 May 2017 (105 messages)
  • @kormushin #13923 07:31 AM, 10 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @alekseyryabkov #13924 07:53 AM, 10 May 2017
    Добрый день! коллеги а никто не сравнивал производительность КХ с СУБД на ГПУ (типа MAPD)?...
  • https://t.me/clickhouse_ru
    @etehtsea #13925 08:00 AM, 10 May 2017
    Aleksey была статья выше
  • https://t.me/clickhouse_ru
    @etehtsea #13926 08:00 AM, 10 May 2017
    с обсуждением
  • https://t.me/clickhouse_ru
    @etehtsea #13927 08:00 AM, 10 May 2017
    в районе 9го мая
  • https://t.me/clickhouse_ru
    спсб видел... но там скажем так заинтересованное лицо было (ибо железо странное в тестах...)... а независимые (ну или условно независимые) тесты никто не делал? и что сами ребята из яндекса по поводу такого движка как ГПУ думают? не спрашивали в кулуарах?
  • @lexa_work #13929 08:40 AM, 10 May 2017
    если я правильно понял, то результаты заоблачные в mapd получаются тогда, когда данные в памяти GPU размещаются
  • @Nvarchar495 #13930 08:40 AM, 10 May 2017
    Это же сколько надо видях воткнуть чтобы 1 тб прогрузить?
  • @sr_maks1 ↶ Reply to #13929 #13931 08:40 AM, 10 May 2017
    Как я понял в этом и заключается логика работы всего софта работающего с gpu
  • @Nvarchar495 #13932 08:41 AM, 10 May 2017
    кстати, кликвью тоже все в памяти хранит )
  • @lexa_work #13933 08:41 AM, 10 May 2017
    те кому нужны эти микросекунды, те готовы приобретать такое оборудование
  • @lexa_work #13934 08:41 AM, 10 May 2017
    т.е. это достаточно нишевый продукт получается
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13935 08:41 AM, 10 May 2017
    Угу
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13936 08:42 AM, 10 May 2017
    В обалке эти теслы стоят космических денег
  • @lexa_work #13937 08:42 AM, 10 May 2017
    может какой-то микротрейдинг с реалтайм аналитикой и подобное
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13938 08:45 AM, 10 May 2017
    Ребят а вообще существует драйвер java для clickhouse чтобы его внедрить в какую нибудь migrate tool ?
  • @sr_maks1 ↶ Reply to #13938 #13939 08:46 AM, 10 May 2017
    в поиске по чату. Несколько раз точно говорили
  • https://t.me/clickhouse_ru
    @vla_vin ↶ Reply to #13938 #13940 08:48 AM, 10 May 2017
    Документация ClickHouse | Документация ClickHouse

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • https://t.me/clickhouse_ru
    есть мысль подключить драйвер для liquebase. это как реально ?
  • @shinebell #13942 08:50 AM, 10 May 2017
    Я там ваше кидал
  • @shinebell #13943 08:51 AM, 10 May 2017
    цитату овнера
  • @shinebell #13944 08:51 AM, 10 May 2017
    mapd
  • @shinebell #13945 08:51 AM, 10 May 2017
    But having said that, Mostak was willing to put some error bars on the top-end price. On a system with eight Tesla K80s, which might cost somewhere between $60,000 to $70,000, the license for the MapD stack would be “a small multiple” of this hardware cost.
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13946 08:52 AM, 10 May 2017
    причем тут mapD ?
  • @shinebell #13947 08:52 AM, 10 May 2017
    см выше
  • @shinebell #13948 08:52 AM, 10 May 2017
    там про мапд
  • @shinebell #13949 08:52 AM, 10 May 2017
    спрашивали
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #13950 09:04 AM, 10 May 2017
    а сори
  • 40 видюх где-то )
  • https://t.me/clickhouse_ru
    @pavel_odintsov #13952 09:12 AM, 10 May 2017
    кошмар ваще
  • @sr_maks1 #13953 09:16 AM, 10 May 2017
    Ребята подскажите, есть запрос который возвращает аггрегат avg(score). Можно ли как то воспользоватся полученным и вычислить min и max от avg с наименьшим ресурсопотреблением? ну то есть min (avg (score)) и включить в общий вывод
  • @291662242 #13954 09:18 AM, 10 May 2017
    Vladimir SELECT min(avg_score) FROM ( SELECT avg(score) FROM ... GROUP BY .. ) t ?
  • @sr_maks1 ↶ Reply to #13954 #13955 09:18 AM, 10 May 2017
    и включить в общий вывод
  • https://t.me/clickhouse_ru
  • @sr_maks1 ↶ Reply to #13956 #13957 09:20 AM, 10 May 2017
    Спасибо! Гляну. Просто не хотелось бы два раза селектить и потом join
  • @sr_maks1 ↶ Reply to #13956 #13958 09:33 AM, 10 May 2017
    почти то что надо но не то, так в формате JSON еще можно понять где экстремы. В остальных форматах название столбца для экстремума тоже что название столбца(ов). Как получить значения в той же wso2 большая загадка - так как 1. запрос идет через драйвер и наверное extremes надо выставлять глобально, что неудобно 2. Необходимо промаппить результат по полям которые одинаковые))
  • https://t.me/clickhouse_ru
    @orantius #13959 09:41 AM, 10 May 2017
    в стандартные возможности это вряд ли укладывается, т.к. с точки зрения реляционной алгебры максимумы минимумы - это такая функция из отношения в отношние (из одной строки и 2n столбцов), и добавление их к основному ответу превращает обычный прямоугольный ответ в объединение цифр с некоторым соглашением про их смысл. в json их можно выдать, т.к. он поддерживает произвольную структуру, в tsv например начинаются неоднозначности.
  • https://t.me/clickhouse_ru
    @orantius #13960 09:43 AM, 10 May 2017
    поэтому либо plain old sql несколько раз, либо какие-то расширенные флажки и форматы. а как вы такие вещи делаете не в clickhouse?
  • @sr_maks1 ↶ Reply to #13959 #13961 09:48 AM, 10 May 2017
    Это все ясно. Просто можно давать в качестве ответа хотя бы max(название столбца) или min (название) .
  • https://t.me/clickhouse_ru
    @orantius #13962 09:49 AM, 10 May 2017
    и размножать одно значение для каждой строки?
  • @sr_maks1 ↶ Reply to #13962 #13963 09:50 AM, 10 May 2017
    да.
  • @sr_maks1 ↶ Reply to #13962 #13964 09:51 AM, 10 May 2017
    если идет выборка по небольшому количеству столбцов (как говорится логика работы КХ) то это не так ресурсоемко
  • @f1yegor #13965 10:38 AM, 10 May 2017
    @ztlpn возможнов в таблицу system.dictionaries стоит добавить колонку обновления конфига?
  • @sr_maks1 #13966 10:41 AM, 10 May 2017
    Было бы шикарно
  • @filonov_ae #13967 11:14 AM, 10 May 2017
    Пытаюсь скрещивать между собой Ch и pentaho DI. Наткнулся на такую неприятную багу:

    2017/05/10 14:09:45 - Table input.0 - ERROR (version 7.0.0.0-25, build 1 from 2016-11-05 15.35.36 by buildguy) : org.pentaho.di.core.exception.KettleDatabaseException:
    2017/05/10 14:09:45 - Table input.0 - Couldn't get row from result set
    2017/05/10 14:09:45 - Table input.0 - java.text.ParseException: Unparseable date: "2016-05-18"

    т.е. столбцы с датой парсятся некорректно. Есть идеи как это побороть?
  • https://t.me/clickhouse_ru
    @umaxfun ↶ Reply to #13967 #13968 11:18 AM, 10 May 2017
    Если только начинаете и не работает, то можете попробовать Talend, по нему мы можем подсказать :)
  • @filonov_ae #13969 11:18 AM, 10 May 2017
    Не, Talend не хотелось бы)
  • @filonov_ae #13970 11:20 AM, 10 May 2017
    ибо а) pentaho-server б) интерфейс у talend-а рисовали какие-то инопланетяне
  • @filonov_ae #13971 11:25 AM, 10 May 2017
    Сам по себе pentaho работает - не работает table input из ClickHouse для столбцов с датами
  • @filonov_ae #13972 11:33 AM, 10 May 2017
    toString() как бы спасает, но хотелось бы более прямого способа
  • https://t.me/clickhouse_ru
    @orantius #13973 11:35 AM, 10 May 2017
    а какой формат дат у pentaho?
  • @filonov_ae #13974 11:39 AM, 10 May 2017
    YYYY/MM/DD
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @yantonov #13976 11:43 AM, 10 May 2017
    Joined.
  • @sr_maks1 ↶ Reply to #13960 #13977 11:47 AM, 10 May 2017
    Кстати если б была функция runningMax или тп наподобие runningdifferencs то было б неплохо
  • https://t.me/clickhouse_ru
    соглашусь, хотелось бы побольше running-функций, особенно runningSum
  • Там все малость сложнее. DateTime обрабатывается корректно. в любом формате. проблема именно с Date. и мне пока не ясно кто тут крайний - pentaho или сама жаба
  • @DeamonMV #13980 12:05 PM, 10 May 2017
    Доброго времени суток, может кто то соорентировать что будет быстрее:
    Изходя из того что данных в кликхаусе 10ТБ
    вариант первый:
    CPU 8 Потоков
    RAM 8
    1ТБ RAID-1
    replication factor 2
    всего 20 Серверов

    Вариант второй
    CPU 16 потоков
    RAM 8
    2ТБ RADI-1
    replication factor 2
    всего 10 Серверов
  • @lexa_work #13981 12:07 PM, 10 May 2017
    по теме не отвечу, но бросается в глаза то, что сервера вроде неслабые, а памяти с гулькины слезы
  • @lexa_work #13982 12:07 PM, 10 May 2017
    как-то не по современому
  • все сильно зависит от того как именно вы их будете нагружать
  • @DeamonMV #13984 12:08 PM, 10 May 2017
    по памяти скажу так, что надо много памяти там где делаются запросы. на тех серверах что не обрабатввают запросы память практически не расходуется.
    по крайней мере заметил такое на нашей конфигурации
  • @DeamonMV #13985 12:08 PM, 10 May 2017
    постоянная запись. и редкое чтение
  • @lexa_work #13986 12:09 PM, 10 May 2017
    возможно вы и правы
  • @lexa_work #13987 12:09 PM, 10 May 2017
    но это уже тонкое понимание вашей конфигурации
  • @DeamonMV #13988 12:09 PM, 10 May 2017
    по памти планирую два сервера с 64ГБ памяти под запросы
  • @DeamonMV #13989 12:13 PM, 10 May 2017
    вопрос что лучше концептуально - много маленьких или поменьше но чуть жирных,
    из ходя из того что дисковая подсистема это RAID1 и для маленьких и для жирненьких. это вероятно уже медленно на наше время но все же.
  • @lexa_work #13990 12:14 PM, 10 May 2017
    если диски одинаковые, если сеть одинаковая (1Gb) и ваш коммутатор держит общую возможную нагрузку, то выходит 20 серверов лучше масштабируются по сетевому IO
  • @lexa_work #13991 12:15 PM, 10 May 2017
    при всяких ребалансировках и, наверное, некоторых запросах надо будет передавать меньшее кол-во данных через сеть с одного сервера
  • @306483558 #13992 12:33 PM, 10 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #13924 #13993 12:37 PM, 10 May 2017
    Почему-то упоминаются только крайности. Хотя есть промежуточный вариант :)
  • @f1yegor #13994 01:51 PM, 10 May 2017
    проблема ALTER TABLE <table> ADD COLUMN <new> String DEFAULT <old> AFTER <old>;
  • @sr_maks1 ↶ Reply to #13956 #13995 01:58 PM, 10 May 2017
    вопрос по extremes - можно ли его задать для пользователя, для jdbc драйвера?
  • https://t.me/clickhouse_ru
    @orantius #13996 02:01 PM, 10 May 2017
    в профиле по-моему можно, для драйвера - это как? ClickHouseQueryParam такой есть, в ClickHouseProperties можно задать.
  • https://t.me/clickhouse_ru
    @chernodarov #13997 02:26 PM, 10 May 2017
    Joined.
  • @sr_maks1 ↶ Reply to #13996 #13998 03:30 PM, 10 May 2017
    Задал в профиле не сработало... Задал в драйвере - тоже. Просто хотел взглянуть что отдается если делать запрос не клиентом кх. Не судьба.
  • @iamigor ↶ Reply to #13998 #13999 03:31 PM, 10 May 2017
    FORMAT какой?
  • @sr_maks1 ↶ Reply to #13999 #14000 03:36 PM, 10 May 2017
    В плане формат? По дефолту. Если я прописываю set extremes=1 и потом делаю запрос - clickhouse-client тогда выдается в зависимости от формата данные - по исходному запросу и по экстремам. Если формат JSON - тогда выдается в отдельной структуре в JSON ответе. Если формат не указываю (по моему pretty) тогда выдается 2 табличками. Ну и так далее..... Так вот я прописал в конфу пользователю <extremes>1</extremes> Перерестатовал - перелогинился - сделал запрос - табличка одна. Значит либо а) не то прописал, б) не сработало.
  • @sr_maks1 #14001 03:38 PM, 10 May 2017
    Ок. Сделал подключение в DBeaver - прописал там тоже самое. К сожалению я не знаю как прописывать выдаваемый формат для jdbc. Ну да ладно. Делаю запрос - тоже только 1 таблица по запросу.
  • https://t.me/clickhouse_ru
    @Felixoid ↶ Reply to #14000 #14002 03:39 PM, 10 May 2017
    попробуйте в конфиг, но не к пользователю, а в профиль пользователя
  • https://t.me/clickhouse_ru
    @orantius #14003 03:41 PM, 10 May 2017
    у jdbc один формат ответа - ResultSet. и по-моему он extremes не поддерживает, т.к. это немного нестандартная штука. в http вы можете получить "две таблички", но парсить их придется самому.
  • https://t.me/clickhouse_ru
    @orantius #14004 03:42 PM, 10 May 2017
    а как DBeaver должен отреагировать на максимумы-минимумы в ответе?
  • @sr_maks1 ↶ Reply to #14004 #14005 03:42 PM, 10 May 2017
    не в курсе если честно. Хотел посмотреть что он выдаст.
  • @sr_maks1 ↶ Reply to #14002 #14006 03:42 PM, 10 May 2017
    спасибо - именно в профиле.
  • https://t.me/clickhouse_ru
    @orantius #14007 03:43 PM, 10 May 2017
    в лучшем случае - выдаст основной ответ, в худшем упадет при разборе ответа.
  • @sr_maks1 ↶ Reply to #14007 #14008 03:43 PM, 10 May 2017
    что верно то верно.
  • https://t.me/clickhouse_ru
    @orantius #14009 03:44 PM, 10 May 2017
    например jdbc при получении group by with totals format tsv оказывается в ситуации, когда у него есть ответ, потом есть одна строка состоящая из пустой строки и потом еще одна строка ответа. и если вы селектите одну строковую колонку, то вы не можете понять "где находитесь".
  • https://t.me/clickhouse_ru
    @orantius #14010 03:45 PM, 10 May 2017
    передача "двух таблиц" в plaint text заканчивается плохо. серверу все равно, он писатель.
  • @sr_maks1 ↶ Reply to #14009 #14011 03:47 PM, 10 May 2017
    jdbc не съел параметр. Выдача одной таблицы.
  • @sr_maks1 #14012 03:51 PM, 10 May 2017
    Таким образом я так понимаю на данный момент воспользоваться min и max достаточно как это сказать .... проблематично
  • https://t.me/clickhouse_ru
    @orantius #14013 03:56 PM, 10 May 2017
    у нас в драйвере есть ClickHouseStatement <: java.sql.Statement , через него можно,
  • https://t.me/clickhouse_ru
    @orantius #14014 03:57 PM, 10 May 2017
    ну или написать запрос select * from (query) cross join (select min/max from (query) ).
  • https://t.me/clickhouse_ru
    @orantius #14015 03:58 PM, 10 May 2017
    только без зведочки, звездочка по-моему до сих пор только левую таблицу заселектит.
  • @f1yegor ↶ Reply to #13994 #14016 04:36 PM, 10 May 2017
    В общем если сделать "переименование" колонки через добавление новой - реальные данные появятся только после мержа. Поэтому если у колонки убрать default срадзу же - то данных не будет
  • https://t.me/clickhouse_ru
    @zaglex #14017 05:40 PM, 10 May 2017
    Вопрос про идемпотентность вставки (которая работает для 100 последних блоков).
    В какой момент осуществляется отбрасывание дублирующихся блоков: ещё до вставки или уже после вставки, во время мерджей? Т.е. могут ли дубли всё же на какое-то время появиться в таблице?
  • https://t.me/clickhouse_ru
    @AndreevDm #14018 05:41 PM, 10 May 2017
    Во время вставки
  • https://t.me/clickhouse_ru
    @zaglex #14019 05:49 PM, 10 May 2017
    А 100 блоков считаются для каждой таблицы отдельно, или 100 - это на всю базу или даже на весь инстанс ClickHouse?
    Т.е. если вставить 1 блок в таблицу 1, потом 100 блоков в таблицу 2, и потом опять первый блок в таблицу 1 - он отбросится или вставится?
  • https://t.me/clickhouse_ru
    @zaglex #14020 05:52 PM, 10 May 2017
    (судя по моему тесту - вставится, но хотел уточнить: это так задумано, или баг?)
  • https://t.me/clickhouse_ru
    @zaglex #14021 05:53 PM, 10 May 2017
    Если так задумано, то, наверно, имеет смысл в документации поправить вот эту фразу:
    "Это работает только для последних 100 вставленных в таблицу блоков."
  • @ztlpn #14022 06:52 PM, 10 May 2017
    Должно быть именно на таблицу
  • @87055541 #14023 07:43 PM, 10 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @proller ↶ Reply to #13752 #14024 08:00 PM, 10 May 2017
    Секретные крутилки чтоб сборка влезала в 3g:
    cmake -DUSE_STATIC_LIBRARIES=0 -DUNBUNDLED=1
    но с ними возможны спецэффекты в неожиданных местах.
  • https://t.me/clickhouse_ru
    @PutinVovan #14025 09:37 PM, 10 May 2017
    Кто знает, в ReplacingMergeTree слияние дубликатов происходит только в рамках одной партиции или за все время слияния тоже выполняются?
  • @MolchanovAV #14026 09:41 PM, 10 May 2017
    в партиции
  • @TanVD #14027 11:34 PM, 10 May 2017
    И Final тут тоже не поможет?)
  • 11 May 2017 (94 messages)
  • https://t.me/clickhouse_ru
    @inv2004 #14028 01:36 AM, 11 May 2017
    Подумал что чисто теоретически в концепции CH и gpumemory engine может быть :)
  • https://t.me/clickhouse_ru
    @x4mmm ↶ Reply to #14024 #14029 03:36 AM, 11 May 2017
    Спасибо
  • https://t.me/clickhouse_ru
    @Ak1nt #14030 07:27 AM, 11 May 2017
    Привет!
    Есть ли способ в CH, имея имя поля как строку, сделать select из этого поля?
    Т.е. хочется, чтобы SELECT someFunction('field_name') FROM table_name в действительности делал SELECT field_name FROM table_name

    Зачем надо:
    Имеем таблицу с некоторым количеством полей плюс-минус одинакового смысла (к примеру, количество ошибок по типам, каждая колонка - отдельный тип ошибки).
    Имеем графану с соответствующим datasource. Хочу данные из всех этих полей иметь на одном дашборде без хардкода имён полей, чтобы при добавлении/удалении полей в CH дашборды в графане перестраивались без ручного вмешательства.
    Пробовал делать Templating: $metric as SELECT name FROM system.columns WHERE table = 'table_name' AND name NOT LIKE 'date%', но при выбранных опциях 'Multi-value' и/или 'Include All option' в переменной $metric появляется набор строк, разделённых запятой: 'error_type_1', 'error_type_2'. Соответственно, нельзя сделать что-то типа SELECT $metric FROM table_name, т.к. будет выполнено SELECT 'error_type_1' FROM table.
  • https://t.me/clickhouse_ru
    @patrakovdg #14031 07:43 AM, 11 May 2017
    всем привет! у вас в документации отсутствует раздел про настройку SSL в КХ. В конфиге есть пример, но пока у меня не получается завести с самоподписанным сертификатом. Строчки
    <verificationMode>none</verificationMode>
    <name>AcceptCertificateHandler</name>
    раскоментировал, но всё равно при попытке подключения в лог сыпется
    <Error> ServerErrorHandler: Poco::Exception. Code: 1000, e.code() = 0, e.displayText() = SSL Exception: error:140890C7:SSL routines:SSL3_GET_CLIENT_CERTIFICATE:peer did not return a certificate, e.what() = SSL Exception
  • https://t.me/clickhouse_ru
    @proller #14032 08:35 AM, 11 May 2017
    в тестах есть рабочий пример конфига и подписывания при запуске тестов
  • https://t.me/clickhouse_ru
    @proller #14033 08:38 AM, 11 May 2017
    ой, попутал, там пример клиента для самоподписаного сервера на питоне
  • https://t.me/clickhouse_ru
    @maxlapshin #14034 08:44 AM, 11 May 2017
    Есть ли простой способ сделать CREATE DATABASE nnn IF EXISTS или проверить наличие такой базы данных на сервере (второе даже лучше)
  • https://t.me/clickhouse_ru
    @Felixoid ↶ Reply to #14034 #14035 08:47 AM, 11 May 2017
    Документация ClickHouse | Документация ClickHouse

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • https://t.me/clickhouse_ru
    @maxlapshin #14036 08:47 AM, 11 May 2017
    блин, стыдно как-то
  • https://t.me/clickhouse_ru
    @NataMakarova #14037 09:31 AM, 11 May 2017
    Продолжается регистрация на митап ClickHouse в Екатеринбурге 16 мая.
    Если есть коллеги, друзья, кому это интересно, то можно поделиться анонсом в сетях:
    https://twitter.com/ya_events/status/859366858604109824
    https://vk.com/yandex.events?w=wall-17796776_5322
    https://www.facebook.com/Yandex.Events/posts/1521278041225645
    Спасибо!
    Яндекс.Events

    ClickHouse Meetup едет в Екатеринбург! Приглашаем на встречу 16 мая: https://t.co/e5ay8TFT8Y

  • https://t.me/clickhouse_ru
    @maxlapshin #14038 09:36 AM, 11 May 2017
    ещё вопрос: для заливки данных всё так же только SQL? Очень надоело заниматься экранированием.
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14038 #14039 09:49 AM, 11 May 2017
    есть прекрасный FORMAT RowBinary где ты пишешь INSERT <...> FORMAT RowBinary а дальше идут бинарные данные как есть
  • https://t.me/clickhouse_ru
    @maxlapshin #14040 09:50 AM, 11 May 2017
    описание структуры посмотреть в сырцах или я не нашел его в документации?
  • https://t.me/clickhouse_ru
    @Civiloid #14041 09:51 AM, 11 May 2017
    Документация ClickHouse | Документация ClickHouse

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • https://t.me/clickhouse_ru
    @Civiloid #14042 09:51 AM, 11 May 2017
    ну или Native
  • https://t.me/clickhouse_ru
    @Civiloid #14043 09:51 AM, 11 May 2017
    но он сильно сложнее уже
  • @TanVD #14044 09:58 AM, 11 May 2017
    Вопрос про Clickhouse-client. В elapsed учитывается время передачи ответа клиенту? :)
  • https://t.me/clickhouse_ru
    спасибо
  • https://t.me/clickhouse_ru
    @zaglex ↶ Reply to #14022 #14046 10:29 AM, 11 May 2017
    Да, похоже, мой тест был плохим. Ограничение в 100 блоков, как и заявлено, работает в рамках таблицы.
    Единственный нюанс - оно не строгое, иногда получается до 110 блоков вставлять без дублирования, а в течение очень короткого промежутка времени может получиться и ещё больше. Но главное, что отклонение в большую сторону, а не в меньшую, так что не страшно.
    P.S. Если кому ещё будет интересно - можно поискать в коде переменную replicated_deduplication_window, станет понятно, откуда берётся 110.
  • https://t.me/clickhouse_ru
    @PutinVovan #14047 10:30 AM, 11 May 2017
    Такая проблема. Есть таблица, запросы к которой содержат фильтр либо по столбцу а, либо по столбцу b. Проблема в том, что т.к. индекс построен (а,b), то фильтрация по столбцу b, с учетом того, что фактов записей в таблице с десяток миллиардов, не представляется возможной. Кто как поступает в такой ситуации? Есть мысль создать еще одну таблицу с индексом (b,a) и дублировать в нее данные. Но что-то не очень нравится мне эта идея.
  • @ztlpn ↶ Reply to #14047 #14048 10:36 AM, 11 May 2017
    Нормальный вариант. Был комментарий на эту тему: https://habrahabr.ru/company/yandex/blog/303282/#comment_9658078
    Яндекс открывает ClickHouse

    Сегодня внутренняя разработка компании Яндекс — аналитическая СУБД ClickHouse, стала доступна каждому. Исходники опубликованы на GitHub под лицензией Apache 2.0.

  • https://t.me/clickhouse_ru
    Окей, спасибо. Интересный комментарий.
    Но все же, интересно, как например у яндекса устроено. Здесь постоянно обсуждаются таблицы с огромным количеством столбцов. И никогда не возникает потребности фильтровать по разным столбцам?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14050 10:50 AM, 11 May 2017
    а ключи постфактум можно регенерировать?
  • @TanVD #14051 10:55 AM, 11 May 2017
    Ни у кого не было проблем с PREWHERE? Делаю SELECT * FROM TABLE_NAME PREWHERE IsExternal = 1. IsExternal UInt8. Всего 500 тысяч строк. В итоге Processed 500mb, столько же ровно сколько и у WHERE...
  • @TanVD #14052 10:55 AM, 11 May 2017
    В документации не нашёл ничего про то, что PREWHERE работает только с первичными ключами или только с определёнными типами.
  • @TanVD #14053 10:56 AM, 11 May 2017
    PREWHERE в итоге должен был выбрать одну строчку:)
  • https://t.me/clickhouse_ru
    @orantius #14054 10:56 AM, 11 May 2017
    у вас же select *
  • https://t.me/clickhouse_ru
    @orantius #14055 10:56 AM, 11 May 2017
    а, строчку.
  • @TanVD #14056 10:57 AM, 11 May 2017
    Да, описался :)
  • @TanVD #14057 10:57 AM, 11 May 2017
    Ну я бы понял, если бы он 500мб и выбрал, но там не больше килобайта в строчке)
  • @TanVD #14058 10:57 AM, 11 May 2017
    ReplacingMergeTree Engine
  • @iamigor #14059 10:58 AM, 11 May 2017
    эм.. а строчка с isexternal == 1 в таблице только одна?
  • https://t.me/clickhouse_ru
    @orantius #14060 10:58 AM, 11 May 2017
    вообще clickhouse пушит в prewhere условие по самой компактной колонке, так что ваш запрос с where возможно работает так же.
  • https://t.me/clickhouse_ru
    @orantius #14061 10:59 AM, 11 May 2017
    но 500mb это видимо не объясняет.
  • @TanVD #14062 10:59 AM, 11 May 2017
    Хм, интересный вопрос. Вообще я сделал ему limit 1. И думал что он не пойдёт выбирать все и по ним делать limti
  • @TanVD #14063 11:00 AM, 11 May 2017
    А сделает limit по строкам с true, но я мог сильно ошибаться
  • @TanVD #14064 11:02 AM, 11 May 2017
    Точнее limit 500000, 1
  • @TanVD #14065 11:03 AM, 11 May 2017
    Но такое же поведение я наблюдаю используя has(Array, Id). Там он выбирает 90 строк и тоже имеет одинаковые затраты при PREWHERE и WHERE
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14066 11:03 AM, 11 May 2017
    Home

    Pilosa is an open source, distributed bitmap index that dramatically accelerates continuous analysis across multiple, massive data sets.

  • @TanVD #14067 11:03 AM, 11 May 2017
    Уже без limit
  • https://t.me/clickhouse_ru
    @orantius ↶ Reply to #14064 #14068 11:11 AM, 11 May 2017
    надо пропустить 500к строк. если у вас строки по килобайту, то вот они и получатся. prewhere выбирает блоки с выполненным условием, читая при этом меньшее число колонок.
  • @TanVD #14069 11:12 AM, 11 May 2017
    Ок... А не подгружая строки он этого делать не умеет? Типа PRELIMIT
  • https://t.me/clickhouse_ru
    @orantius #14070 11:13 AM, 11 May 2017
    запрос работает как limit(where(from))
  • @TanVD #14071 11:14 AM, 11 May 2017
    Аа, ок. А с has почему так? Там вес колонки 45 мб, и limit уже нет...
  • https://t.me/clickhouse_ru
    @orantius #14072 11:16 AM, 11 May 2017
    возможно у вас эти 90 строк равномерно по всем блокам размазаны. надо смотреть на конкретные запросы и таблицы.
  • @TanVD #14073 11:17 AM, 11 May 2017
    Ну блок по умолчанию 65 кб, это 6 мб на все строки
  • @TanVD #14074 11:17 AM, 11 May 2017
    Если я правильно понимаю, как он их грузит...
  • @TanVD #14075 11:18 AM, 11 May 2017
    А, это количество строк, 65 тыс строк. Понял :) Сейчам попробую поменять размер
  • @ztlpn ↶ Reply to #14049 #14076 11:21 AM, 11 May 2017
    Зависит от задачи. Например, в Метрике первичный ключ начинается с id счётчика - для большинства запросов это то, что нужно. Но если хочется быстрых аналитических запросов с фильтрацией по любому из двух некореллированых столбцов, то особо и вариантов нет, кроме как хранить всё два раза отсортированным в разном порядке. Конечно, удобнее, когда СУБД это делает автоматически.
  • @TanVD #14077 11:27 AM, 11 May 2017
    Как-то на него это не произвело должного впечатления. Выглядит так, будто prewhere просто не работает. Но я не очень понимаю, что не так в настройках.
  • @danton0v #14078 11:45 AM, 11 May 2017
    Joined.
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14080 11:57 AM, 11 May 2017
    Угу;)
  • https://t.me/clickhouse_ru
    @srgkm #14081 11:58 AM, 11 May 2017
    Подробно описывают, как пришли к кликхаусу. Какие либы используют и даже про железо. Найс
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14082 11:58 AM, 11 May 2017
    если есть вопросы, я могу передать коллегам либо ответить сам
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14083 11:59 AM, 11 May 2017
    я как раз занимался первичными тестами на синтетической нагрузке.
  • https://t.me/clickhouse_ru
    @orantius #14084 12:02 PM, 11 May 2017
    1M rps, понятно зачем нужен был нативный протокол.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14085 12:03 PM, 11 May 2017
    не только поэтому, я думаю protobuf и прочие тоже бы выдержали такую нагрузку
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14086 12:03 PM, 11 May 2017
    проблема была в том, что эта статистика собирается из hot path
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14087 12:03 PM, 11 May 2017
    то есть вместе с запросом клиента, а в этом случае ключевая проблема - это оверхед, который вносит сборка / отпарвка этих сообщений
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14088 12:04 PM, 11 May 2017
    у capnp он ну очень маленький и сообщения собираются крайне быстро, избегая выделений памяти вообще
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14089 12:05 PM, 11 May 2017
    то есть, берется блок памяти из пула памяти и потом уже код демона заполняет его информацией которую извлек из запроса клиента и ставит в очередь на отправку на коллектор
  • https://t.me/clickhouse_ru
    @orantius #14090 12:08 PM, 11 May 2017
    default settings is to make a mark of every 8,192th row. This way only 122,070 marks are required to sparsely index a table with 1 trillion rows,
  • https://t.me/clickhouse_ru
    @orantius #14091 12:08 PM, 11 May 2017
    но ведь это миллиард. 8192*122070
  • https://t.me/clickhouse_ru
    @maxlapshin #14092 12:39 PM, 11 May 2017
    можете подсказать по FORMAT RowBinary: если я правильно понимаю, то надо как-то сообщить кликхаусу с какого байта начинаются сырые данные
  • https://t.me/clickhouse_ru
    @maxlapshin #14093 12:39 PM, 11 May 2017
    как правильно сообщить, что закончился текстовый INSERT и поехали бинарные данные?
  • https://t.me/clickhouse_ru
    @maxlapshin #14094 12:40 PM, 11 May 2017
    INSERT INTO sessions (....) VALUES FORMAT RowBinary binarydata
  • https://t.me/clickhouse_ru
    @maxlapshin #14095 12:40 PM, 11 May 2017
    вот что может стоять между RowBinary и binarydata ?
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14095 #14096 12:42 PM, 11 May 2017
    \n
  • https://t.me/clickhouse_ru
    @maxlapshin #14097 12:42 PM, 11 May 2017
    спасибо
  • https://t.me/clickhouse_ru
    @maxlapshin #14098 01:06 PM, 11 May 2017
    да, всё заработало, большое спасибо
  • https://t.me/clickhouse_ru
    @maxlapshin #14099 01:07 PM, 11 May 2017
    я помню, тут обсуждался вопрос на тему хранения IP адресов. У меня сейчас пол-миллиарда строк с ip адресами в var string. Есть какая-то рекомендация по тому, как правильнее это хранить, учитывая, что пока не очень понятно как именно этим в последствии пользоваться?
  • https://t.me/clickhouse_ru
    @maxlapshin #14100 01:07 PM, 11 May 2017
    возможно разумнее положить в fixed string 16 или fixed string + флаг на ipv4/ipv6?
  • @lexa_work #14101 01:08 PM, 11 May 2017
    Uint и функции типа IPv4NumToString и обратно
  • @lexa_work #14102 01:08 PM, 11 May 2017
    ClickHouse Documentation | ClickHouse Documentation

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • https://t.me/clickhouse_ru
    @maxlapshin #14103 01:09 PM, 11 May 2017
    у нас есть и ipv6
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14104 01:10 PM, 11 May 2017
    мы раскладываем в отдельные столбцы - в4, в6 и флажок про протокол
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14105 01:10 PM, 11 May 2017
    разработчики подтверждали, что это ОК
  • @lexa_work #14106 01:10 PM, 11 May 2017
    ты хочешь в одном поле и то и то хранить?
  • https://t.me/clickhouse_ru
    @orantius #14107 01:10 PM, 11 May 2017
    у нас тоже uint32+fixedstring(16)
  • https://t.me/clickhouse_ru
    я не знаю, как правильнее и благоразумнее, потому что в данный момент я вообще просто складываю. Там можно найти и такой треш, как 10.0.75.15, 195.43.32.10 =)
  • https://t.me/clickhouse_ru
    короче, разумнее раскладывать, ок.
  • https://t.me/clickhouse_ru
    @maxlapshin #14110 01:13 PM, 11 May 2017
    я просто планирую очередную миграцию структуры и это слегка беспокоит =)
  • https://t.me/clickhouse_ru
    @proller #14111 01:58 PM, 11 May 2017
    почему бы не хранить все в ipv6 fixed string 16 а для ipv4 использовать стандартный префикс ::ffff:
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14112 02:00 PM, 11 May 2017
    есть IPv4 mapped on IPv6
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14113 02:01 PM, 11 May 2017
    и тогда невозможно отличить, го этой проблемой страдает, что хранит все в слайсе битово и хрен отличишь :/
  • @TanVD #14114 02:39 PM, 11 May 2017
    На тему PREWHERE. Не может быть такого, что при наличии достаточного большого числа записей удовлетворяющих выражению в PREWHERE, Clickhouse просто обходит все данные?
  • @TanVD #14115 04:03 PM, 11 May 2017
    Нашёл кажется ответ — проблема была в index_granularity. PREWHERE, насколько я понимаю, грузит куски содержащие true не менее чем по index_granularity строчек (поправьте, если ошибаюсь). В случае, если записей много и они распределены равномерно по порядку сортировки первичного ключа, WHERE действительно не будет отличаться от PREWHERE. Если уменьшить index_granularity — различие появляется. :)
  • @sibrikov #14116 06:57 PM, 11 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @180029741 #14119 08:08 PM, 11 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14120 08:12 PM, 11 May 2017
    А чего твиттер неживой?;(
  • @f1yegor #14121 09:02 PM, 11 May 2017
    потому что русскоязычная аудитория не очень к твиттору?
  • @f1yegor #14122 09:02 PM, 11 May 2017
    но я пинал как мог, ты видел)
  • @milovidov_an #14123 09:51 PM, 11 May 2017
    > А чего твиттер неживой?;(

    Его завели на всякий случай, без конкретных планов по использованию. Сейчас мы ещё не начали его использовать.
  • 12 May 2017 (72 messages)
  • https://t.me/clickhouse_ru
    @OrNixx #14124 06:21 AM, 12 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @windoozatnick #14125 08:08 AM, 12 May 2017
    Добро пожаловать, 666 участник)
  • https://t.me/clickhouse_ru
    @bwh1te #14126 08:12 AM, 12 May 2017
  • https://t.me/clickhouse_ru
    @OrNixx #14127 08:26 AM, 12 May 2017
    раз уж моё появление привлекло внимание... с точки зрения админа, есть ли какие-то интересные моменты в кликхаусе? или docker run и забыл?
  • @dr_gavrikov #14129 10:22 AM, 12 May 2017
    Коллеги, а есть в кликхаусе арифметическая (именно арифметическая, а не агрегатная функция), которая возвращает максимум двух значений

    типо greatest в Oracle

    http://oracleplsql.ru/greatest-function.html
  • @filonov_ae #14130 10:24 AM, 12 May 2017
    Документация ClickHouse | Документация ClickHouse

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • @dr_gavrikov #14131 10:30 AM, 12 May 2017
    большое спасибо
  • @f1yegor #14132 11:51 AM, 12 May 2017
    кто Superset пробовал. чем там все закончилось?
  • https://t.me/clickhouse_ru
    там вроде пул-реквест до сих пор не приняли
  • https://t.me/clickhouse_ru
    @vladenisov #14134 11:54 AM, 12 May 2017
    а, ошибся. приняли уже
  • @f1yegor #14135 11:54 AM, 12 May 2017
    не могу найти, какой?
  • @f1yegor #14136 11:54 AM, 12 May 2017
    Basic integration with ClickHouse by vavrusa · Pull Request #1844 · airbnb/superset

    This PR adds integration with ClickHouse SQLAlchemy engine spec. Adding database and tables works Adding views works Table, timeseries, group by, group by + timeseries works Using secondary dt...

  • https://t.me/clickhouse_ru
    @WladySpb #14138 12:07 PM, 12 May 2017
    Господа, такой вопрос - где кликхаус сервер хранит информацию о имеющихся базах и таблицах? Настроил в докер контейнере подключение папки /opt/clickhouse/data снаружи, создаю бд, создаю таблицы, они появляются в папке - но при пересоздании контейнера кликхаус перестаёт видеть эти папки, и ругается что базы данных нет, да и таблиц в ней тоже.
  • @iamigor #14139 12:07 PM, 12 May 2017
    /var/lib?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14140 12:07 PM, 12 May 2017
    недавно поменяли дефалтное место хранения на /var/lib.
  • @iamigor #14141 12:07 PM, 12 May 2017
    в конфиге должно быть указано
  • https://t.me/clickhouse_ru
    @WladySpb #14142 12:09 PM, 12 May 2017
    <!— Path to data directory, with trailing slash. —>
    <path>/opt/clickhouse/</path>
  • https://t.me/clickhouse_ru
    @WladySpb #14143 12:10 PM, 12 May 2017
    Он создаёт по этому адресу папку с названием бд, и в ней папки с названиями таблиц, но при перезапуске контейнера не видит их
  • @iamigor #14144 12:10 PM, 12 May 2017
    примонтируйте как volume
  • @iamigor #14145 12:10 PM, 12 May 2017
    иначе содержимое контейнера сбрасывается
  • https://t.me/clickhouse_ru
    @WladySpb #14146 12:10 PM, 12 May 2017
    Они так и примонтированы
  • https://t.me/clickhouse_ru
    @WladySpb #14147 12:11 PM, 12 May 2017
    Лежат на хост машине физически
  • https://t.me/clickhouse_ru
    @WladySpb #14148 12:11 PM, 12 May 2017
    Причём, если создать бд и таблицу заново, в ней видны старые значения
  • https://t.me/clickhouse_ru
    @WladySpb #14149 12:21 PM, 12 May 2017
    Нашёл, надо после старта сервера выполнить команду attach
  • https://t.me/clickhouse_ru
    @WladySpb #14150 12:23 PM, 12 May 2017
    причём, для каждой таблицы. С её полным описанием. Жесть.
  • @iamigor #14151 12:23 PM, 12 May 2017
    че-т это странно
  • @iamigor #14152 12:23 PM, 12 May 2017
    как создаете/поднимаете контейнер?
  • https://t.me/clickhouse_ru
    @Felixoid ↶ Reply to #14138 #14153 12:29 PM, 12 May 2017
    монтировать надо не /opt/clickhouse/data, а /opt/clickhouse
  • https://t.me/clickhouse_ru
    @Felixoid #14154 12:30 PM, 12 May 2017
    в противном случае нету папки metadata, в которой как раз и есть все create db, attach table
  • https://t.me/clickhouse_ru
    @WladySpb #14155 12:31 PM, 12 May 2017
    О, то есть, мне нужно только изменить монтирование папки?
  • https://t.me/clickhouse_ru
    @WladySpb #14156 12:31 PM, 12 May 2017
    Сейчас попробую, спасибо, а то я уже печалиться начал из за аттача
  • https://t.me/clickhouse_ru
    @WladySpb #14157 12:38 PM, 12 May 2017
    Контейнер перестал подниматься))
  • https://t.me/clickhouse_ru
    @WladySpb #14158 12:51 PM, 12 May 2017
    Если в volumes - ./clickhouse/data:/opt/clickhouse/data - всё работает. Если добавляю - ./clickhouse/metadata:/opt/clickhouse/metadata или заменяю на - ./clickhouse:/opt/clickhouse - exit 70
  • @ztlpn #14159 01:03 PM, 12 May 2017
    Нужно монтировать именно /opt/clickhouse
  • @ztlpn #14160 01:04 PM, 12 May 2017
    А есть права на запись в директорию на хосте?
  • @ztlpn #14161 01:06 PM, 12 May 2017
    И ещё tmp_path в конфиге проверьте (должно быть /opt/clickhouse/tmp/).
  • https://t.me/clickhouse_ru
    @taroff #14162 01:22 PM, 12 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @aloneibreak #14163 01:23 PM, 12 May 2017
    добрый день
    вопрос по JOIN
    я правильно понимаю что он не работает по имени таблицы а только по подзапросу?
  • @iamigor #14164 01:24 PM, 12 May 2017
    в смысле?
    имя таблицы указывать в родительском запросе бесполезно, да. можно столбцы переименовывать в правой таблице через подзапрос
  • https://t.me/clickhouse_ru
    @aloneibreak #14165 01:27 PM, 12 May 2017
    у меня просто при попытке приджойнить distributed таблицу ругается что такой нет в БД default
    при этом при создании таблицы БД указана верно
    например select ... from ... any inner join events using .... не работает. пишет нет таблицы default.events
    select ... from ... any inner join stats.events using .... не работает. пишет нет таблицы stats.stats.events
    но select ... from ... any inner join (select * from stats.events) using .... работает
  • @ztlpn #14166 01:37 PM, 12 May 2017
    а если сделать GLOBAL JOIN?
  • https://t.me/clickhouse_ru
    @aloneibreak #14167 01:39 PM, 12 May 2017
    да, так работает. спасибо )
  • @f1yegor #14168 01:57 PM, 12 May 2017
    как выбрать одно из ненулевый значений из двух колонок?
  • https://t.me/clickhouse_ru
    @Manatskov #14169 01:58 PM, 12 May 2017
    Попробуйте использовать функцию if
  • https://t.me/clickhouse_ru
    @WladySpb #14171 02:52 PM, 12 May 2017
    Разобрался с контейнером. Если в папке metadata нет дефолтных папок - сервер умирает.
  • @iamigor #14172 02:55 PM, 12 May 2017
    а почему там нет дефолтных папок? о_О
  • @f1yegor #14173 02:59 PM, 12 May 2017
    я заносил на это баг когда-то. вроде чинили
  • https://t.me/clickhouse_ru
    @WladySpb #14174 03:10 PM, 12 May 2017
    Там их не было, потому что я линковал внутрь пустую папку metadata, при первом создании контейнера
  • https://t.me/clickhouse_ru
    @g00glle #14175 03:25 PM, 12 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @g00glle #14176 03:25 PM, 12 May 2017
    Добрый вечер, коллеги.
  • @f1yegor ↶ Reply to #14174 #14177 03:29 PM, 12 May 2017
    а отдельную папку лучше не линковать. лучше только config & data директории
  • https://t.me/clickhouse_ru
    @WladySpb ↶ Reply to #14177 #14178 03:33 PM, 12 May 2017
    Вы имеете в виду папку с метаданными? Но если её не линковать, кх в контейнере после перезапуска контейнера не видит бд и таблицы
  • @f1yegor #14179 03:35 PM, 12 May 2017
    вы сейчас говорите что пытаетесь монтировать отдельно /opt/clickhouse/data/ & /opt/clickhouse/metadata, а не целиком /opt/clickhouse, или в новых сборках /var/lib/clickhouse ?
  • https://t.me/clickhouse_ru
    @WladySpb #14180 03:36 PM, 12 May 2017
    Я и так и так пытался)
  • @f1yegor #14182 03:37 PM, 12 May 2017
    т.е. у меня это выглядит docker run -d —name=clickhouse —net=host —restart=always -v /data/clickhouse/data:/opt/clickhouse -v /data/clickhouse/config:/etc/clickhouse-server yandex/clickhouse-server:1.1.54198
  • https://t.me/clickhouse_ru
  • @f1yegor #14184 03:39 PM, 12 May 2017
    Last pushed: a year ago
  • @f1yegor #14185 03:39 PM, 12 May 2017
    используйте официальный image. он хороший
  • @f1yegor #14186 03:39 PM, 12 May 2017
    и новый)
  • https://t.me/clickhouse_ru
    @WladySpb #14187 03:39 PM, 12 May 2017
    Я вот этот образ брал, ну и конфиг компостера оттуда. Уже не помню, чём мне официальный не подошёл
  • https://t.me/clickhouse_ru
    @WladySpb #14188 03:40 PM, 12 May 2017
    Надо будет попробовать поднять официальный
  • @f1yegor #14189 03:40 PM, 12 May 2017
    ну или свой собирайте на основе официального как тут https://github.com/crobox/docker-clickhouse
    crobox/docker-clickhouse

    Clickhouse server image that only binds to IPv4. Contribute to crobox/docker-clickhouse development by creating an account on GitHub.

  • @Dandandelion #14190 04:34 PM, 12 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @maxlapshin #14192 10:39 PM, 12 May 2017
    > it wasn’t possible to hot-swap just the faulty disks, and second the array rebuild took tens of hours which degraded I/O performance.
  • https://t.me/clickhouse_ru
    @maxlapshin #14193 10:39 PM, 12 May 2017
    золотые слова
  • https://t.me/clickhouse_ru
    @maxlapshin #14194 10:39 PM, 12 May 2017
    когда уже прекратят эти тормозные рейды пихать куда ни попадя
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14195 10:45 PM, 12 May 2017
    в этом плане важный момент, чтобы база сама корректно хендлила данный кейс
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14196 10:45 PM, 12 May 2017
    часто при сбое диска линукс встает колом и увы, продолжить работу корректно уже никак не выходит
  • @milovidov_an #14197 11:28 PM, 12 May 2017
    Могут быть проблемы, в том числе и с рейдами тоже. Например, было пара случаев, когда файловая система повреждается, и в случайном месте readdir превращается в бесконечный цикл. Как правило, clickhouse-server всё-таки быстро перестаёт принимать запросы и запросы перестают идти на конкретный сервер. Также в последних ревизиях была добавлена функциональность отключения отстающих реплик при распределённых запросах, что позволяет быстрее убирать из нагрузки проблемные серверы.
  • 13 May 2017 (32 messages)
  • https://t.me/clickhouse_ru
    @g00glle #14198 05:55 AM, 13 May 2017
    ребят, доброе утро. только начал экспериментировать с ch, прошу терпеливо направить:

    Нужно настроить перекладку записей из имеющейся продуктивной MS SQL базы в таблицу CH.
    На данный момент хочу делать это раз в минуту (за 60 секунд в источнике генерируется ~19к строк).
    После некоторого тюнинга запроса на MSSQL инстансе он выполняется за 15-30 секунд (приходится джойнить две толстые таблицы), в зависимости от загрузки сервера.
    1 секунда уходит на складывание PIVOT-ом пары строк в одну вида [date],[timestamp_utc],[metric.1],[metric.2]
    всё это генерируется на стороне MSSQL сервера - windows server.

    Какие есть годные варианты, чтобы максимально быстро сложить результирующий CSV в таблицу CH?

    Пока успел попробовать только передавать через web-морду по 1000 строк curl-ом - ооочень медленно.
    Поглядел на Go либу - она вроде только через web работает..

    Может, я невнимательно читал документацию и задачу записи через web-interface я мог бы распараллелить? Engine = MergeTree
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14198 #14199 06:02 AM, 13 May 2017
    Можно класть по любому количеству строк. Для го есть нативная библиотека неплохая
  • https://t.me/clickhouse_ru
    @Civiloid #14200 06:02 AM, 13 May 2017
    GitHub - ClickHouse/clickhouse-go: Golang driver for ClickHouse

    Golang driver for ClickHouse. Contribute to ClickHouse/clickhouse-go development by creating an account on GitHub.

  • https://t.me/clickhouse_ru
    @g00glle ↶ Reply to #14199 #14201 06:05 AM, 13 May 2017
    количество в 1000 на один POST где-то в документации встретил... поищу. И всё равно - получившееся число передавалось ощутимо долго, вся процедура ETL (простите, не DBA - могу не к месту использовать этот термин) выбивается из лимита в 60 секунд
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14201 #14202 06:06 AM, 13 May 2017
    Рекомендации не менее 1000
  • https://t.me/clickhouse_ru
    @Civiloid #14203 06:06 AM, 13 May 2017
    Можно хоть миллион
  • https://t.me/clickhouse_ru
    @g00glle ↶ Reply to #14202 #14204 06:07 AM, 13 May 2017
    оуч, попробую! Спасибо за уточнение
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14204 #14205 06:08 AM, 13 May 2017
    Там рекомендация делать не очень много, но больших инсертов
  • https://t.me/clickhouse_ru
    @g00glle ↶ Reply to #14200 #14206 06:08 AM, 13 May 2017
    Спасибо, я почему-то из офиса только одну разглядел - https://github.com/roistat/go-clickhouse, она мне не понравилась =)
    GitHub - roistat/go-clickhouse: Golang ClickHouse connector

    Golang ClickHouse connector. Contribute to roistat/go-clickhouse development by creating an account on GitHub.

  • https://t.me/clickhouse_ru
    @Civiloid #14207 06:08 AM, 13 May 2017
    То есть лучше 10 раз в секунду по 100000 строк, чем 100 раз по 10000
  • https://t.me/clickhouse_ru
    @g00glle ↶ Reply to #14207 #14208 06:09 AM, 13 May 2017
    в параллели можно insert делать?
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14208 #14209 06:10 AM, 13 May 2017
    М... Никто не запрещает как бы :)
  • https://t.me/clickhouse_ru
    @g00glle ↶ Reply to #14209 #14210 06:10 AM, 13 May 2017
    я сейчас сразу проверить не смогу.. =) приходится нудить
  • https://t.me/clickhouse_ru
    @g00glle #14211 06:10 AM, 13 May 2017
    @Civiloid спасибо за разъяснения
  • https://t.me/clickhouse_ru
    @g00glle #14212 06:19 AM, 13 May 2017
    А можно я тогда вообще разойдусь и задам вопрос посложнее? 🤓

    В задаче, что я описал выше, на стороне источника формируется избыточное количество строк для 60ти секунд - задан промежуток 58с > t > 122c. Eсть ли какие-то уже наработанные в community подходы для дедупликации строк? Прикидываю попробовать как-то реализовать механизм через temporary table, но вдруг уже кто-то изобрёл велосипед...
  • https://t.me/clickhouse_ru
    @g00glle #14213 06:23 AM, 13 May 2017
    Задачи, которые я хочу решить - удовлетворить свой перфекционизм, минимизировать мусор. В перспективе прикидываю сложить в CH значительное количество данных от разных систем (пока, например, исторических данных мониторинга от трёх систем) - начинать с захламления имхо не лучшая идея.
  • https://t.me/clickhouse_ru
    @soyayaos ↶ Reply to #14198 #14214 07:48 AM, 13 May 2017
    Условно костыльное решение: скидывать готовые csv в папку с именем вида unixtime.csv и заливать их по расписанию через clickhouse-client или веб-морду. Возможно менее костыльное- настроить сходное по логике через syslog-ng
  • https://t.me/clickhouse_ru
    @nikepan #14215 07:53 AM, 13 May 2017
    https://github.com/nikepan/clickhouse-bulk еще может помочь. но он тоже через веб
    GitHub - nikepan/clickhouse-bulk: Collects many small inserts to ClickHouse and send in big inserts

    Collects many small inserts to ClickHouse and send in big inserts - GitHub - nikepan/clickhouse-bulk: Collects many small inserts to ClickHouse and send in big inserts

  • https://t.me/clickhouse_ru
    Вроде как лучше один раз в секунду по миллиону. Именно это написано в мануале
  • https://t.me/clickhouse_ru
    @maxlapshin #14217 01:56 PM, 13 May 2017
    Но миллион в секунду - это нереальные же цифры
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14216 #14218 01:57 PM, 13 May 2017
    Ну совсем хорошо конечно так
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14217 #14219 02:11 PM, 13 May 2017
    Смотря чего
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14220 02:11 PM, 13 May 2017
    FusionIO и реальные;)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14221 02:11 PM, 13 May 2017
    А еще можно в рам!)
  • https://t.me/clickhouse_ru
    @kshvakov ↶ Reply to #14208 #14222 07:03 PM, 13 May 2017
    можно, но если в одну таблицу то будет медленно, вставка пачками (большими) обусловленна тем что CH потом эти куски данных сливает вместе с имеющимися, а это дорогая операция
  • https://t.me/clickhouse_ru
    @g00glle ↶ Reply to #14222 #14223 08:46 PM, 13 May 2017
    Спасибо. Прихожу к выводу, что оптимальнее загрузкой данных в CH было бы заниматься на стороне самого CH - вовне останется только подключение к mssql инстансу за данными. Распарсить и скормить в таблицу легче/быстрее на сервере CH через clickhouse-client, например..
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #14223 #14224 09:50 PM, 13 May 2017
    Аналогичная проблема. И пока не проверил, но надеюсь что buffer engine тут поможет. Так как не очень хочется внешние обвязки для буфера делать: + дополнительная часть + задержка данных
  • https://t.me/clickhouse_ru
    @emakarov ↶ Reply to #14224 #14225 10:12 PM, 13 May 2017
    да, buffer engine помогает с такими задачами, когда данные идут маленькими пачками
  • https://t.me/clickhouse_ru
    @g00glle #14226 10:22 PM, 13 May 2017
    Evgeny, @inv2004:

    Кхм, не уверен, что касательно моей задачи вопрос в маленьких пачках данных. У меня сейчас жалкие 19к строк через web интерфейс передаётся 14+ минут, а это всего лишь данные источника за минуту. csv с этими данными - меньше 3Мб.

    Важное замечание, возможно - вместо curl приходится использовать cmdlet Powershell-а 'Invoke-RestMethod' - может, косяк производительности в нём?

    P.S.:
    @maxlapshin, lol... 1.000.000 строк в секунду да при моей текущей производительности...
  • https://t.me/clickhouse_ru
    @alexanderzaitsev #14227 10:37 PM, 13 May 2017
    А что странного в миллионе строк в секунду? И тут надо еще понимать:
    1) размер строки, сколько там колонок. Строка из 10 интов, и 100 стрингов -- это две большие разницы.
    2) производительность дисковой подсистемы. В рамках одного сервера упирается обычно в диск
    3) сколько серверов в кластере. Вставка при правильном дизайне масштабируется линейно

    Можно грубо прикинуть размер строки в байтах, поделить его примерно на 5 (компрессия), а еще лучше померить точнее, как жмет ваши данные КликХаус, и соотнести с write speed дисковой подсистемы. Это будет верхний предел, но КликХаус от него не сильно должен отступать при достаточно больших блоках
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14226 #14228 11:24 PM, 13 May 2017
    Возможно в нем, потому что 13к строк это мало
  • Да, это нереально медленно.
  • 14 May 2017 (8 messages)
  • https://t.me/clickhouse_ru
    @inv2004 #14230 02:18 AM, 14 May 2017
    У меня около 5000 строк в секунду. Но данных не очень много, строка, которую надо в cityhash и десяток чисел.
  • https://t.me/clickhouse_ru
    Я имел ввиду скорее на один сервер
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14231 #14232 06:05 AM, 14 May 2017
    Так зависит от данных. Если это что то в духе графитной потока то норм
  • @118856408 #14233 08:41 AM, 14 May 2017
    Joined.
  • @f1yegor #14234 11:27 AM, 14 May 2017
    компиляцию запросов стоит включать?
  • @f1yegor #14235 11:27 AM, 14 May 2017
    /** Whether query compilation is enabled. */ \
    M(SettingBool, compile, false) \
  • @f1yegor #14236 06:04 PM, 14 May 2017
  • Можно попробовать. Мы держим включенной для запросов из интерфейса. В среднем преимущество очень небольшое - 5%. Изредка может даже привести к замедлению.
  • 15 May 2017 (166 messages)
  • @DigDiver #14238 06:21 AM, 15 May 2017
    Для Zookeeperа какие машинки стоит выбирать? Хватит ли Amazon EC2 t2.small?
  • https://t.me/clickhouse_ru
    @yaBloom #14239 06:45 AM, 15 May 2017
    Joined.
  • @yamlcoder #14240 06:47 AM, 15 May 2017
    Зукиперу важно на диск скидывать в минимальными задержками, так что главное чтобы ничего больше рядом не крутилось и не писало
  • https://t.me/clickhouse_ru
    @yaBloom #14241 06:52 AM, 15 May 2017
    Всем привет! Подскажите по докеру, что делаю не так?
    Скачал последний
    sudo docker pull yandex/clickhouse-server
    Запускаю так
    sudo docker run -d yandex/clickhouse-server
    В ps -a выдает
    yandex/clickhouse-server "/bin/sh -c 'exec ..." Exited (70) About a minute
  • @yamlcoder #14242 06:54 AM, 15 May 2017
    смотрите в docker logs <container_id>
  • https://t.me/clickhouse_ru
    @yaBloom #14243 06:54 AM, 15 May 2017
    2017.05.15 06:48:20.346461 [ 1 ] <Error> Application: Net Exception: Cannot assign requested address: [::1]:8123
    2017.05.15 06:48:20.346471 [ 1 ] <Information> Application: shutting down
  • https://t.me/clickhouse_ru
    @yaBloom #14244 06:54 AM, 15 May 2017
    Вот оно, походу
  • https://t.me/clickhouse_ru
    @yaBloom #14245 06:55 AM, 15 May 2017
    но кова фига, если оно настроено по умолчанию все?
  • @yamlcoder #14246 06:55 AM, 15 May 2017
    ipv6 выключен?
  • https://t.me/clickhouse_ru
    @yaBloom #14247 06:55 AM, 15 May 2017
    нет
  • @sr_maks1 #14248 06:56 AM, 15 May 2017
    Возможно уже используется 8123
  • @sr_maks1 #14249 06:56 AM, 15 May 2017
    проверьте docker ps | grep 8123
  • @yamlcoder #14250 06:56 AM, 15 May 2017
    так в контейнере ж, пускают через dockr run, без всяких --net=host
  • @sr_maks1 #14251 06:56 AM, 15 May 2017
    обычно такое сообщение если адрес/порт уже используется
  • https://t.me/clickhouse_ru
    @yaBloom #14252 06:56 AM, 15 May 2017
    ничего не выдает
  • https://t.me/clickhouse_ru
    @soyayaos #14253 06:57 AM, 15 May 2017
    Если бы был выклюен, он бы не биндился на него
  • https://t.me/clickhouse_ru
    @yaBloom #14254 06:57 AM, 15 May 2017
    Из нового добавилось только zookeeper
  • https://t.me/clickhouse_ru
    @yaBloom #14255 06:57 AM, 15 May 2017
    раньше норм было, вот обновился и началось))
  • https://t.me/clickhouse_ru
    @soyayaos #14256 06:58 AM, 15 May 2017
    netstat -tulpn | grep :8123
  • https://t.me/clickhouse_ru
    @yaBloom #14257 06:58 AM, 15 May 2017
    хотя давно пользовался, может и туплю
  • https://t.me/clickhouse_ru
    @soyayaos #14258 06:59 AM, 15 May 2017
    Или так docker run ..... -p IPV4:8123:8123 например
  • https://t.me/clickhouse_ru
    @yaBloom #14259 06:59 AM, 15 May 2017
    sudo netstat -tulpn | grep :8123
    Ничего не выдает
  • https://t.me/clickhouse_ru
    @IlyaSinelnikov #14260 06:59 AM, 15 May 2017
    У меня такое было когда толи докеру в6 небыло доступно, толи на подклбченном впн в6 небыло
  • https://t.me/clickhouse_ru
    @yaBloom #14261 06:59 AM, 15 May 2017
    bloom@bloom-desktop ~/domains/Web/docker_reps $ sudo docker logs 0db4bbab4278
    Include not found: clickhouse_remote_servers
    Include not found: clickhouse_compression
    2017.05.15 06:48:20.334073 [ 1 ] <Warning> Application: Logging to console
    2017.05.15 06:48:20.335773 [ 1 ] <Information> : Starting daemon with revision 54198
    2017.05.15 06:48:20.335845 [ 1 ] <Information> Application: starting up
    2017.05.15 06:48:20.336182 [ 1 ] <Debug> Application: rlimit on number of file descriptors is 1048576
    2017.05.15 06:48:20.336191 [ 1 ] <Debug> Application: Initializing DateLUT.
    2017.05.15 06:48:20.336196 [ 1 ] <Trace> Application: Initialized DateLUT with time zone `Zulu'.
    2017.05.15 06:48:20.336642 [ 1 ] <Debug> Application: Configuration parameter 'interserver_http_host' doesn't exist or exists and empty. Will use '0db4bbab4278' as replica host.
    2017.05.15 06:48:20.336738 [ 1 ] <Debug> ConfigReloader: Loading config `/etc/clickhouse-server/users.xml'
    2017.05.15 06:48:20.338088 [ 1 ] <Warning> ConfigProcessor: Include not found: networks
    2017.05.15 06:48:20.338102 [ 1 ] <Warning> ConfigProcessor: Include not found: networks
    2017.05.15 06:48:20.338463 [ 1 ] <Information> Application: Loading metadata.
    2017.05.15 06:48:20.338626 [ 1 ] <Information> DatabaseOrdinary (default): Total 0 tables.
    2017.05.15 06:48:20.338879 [ 1 ] <Debug> Application: Loaded metadata.
    2017.05.15 06:48:20.338973 [ 1 ] <Information> DatabaseOrdinary (system): Total 0 tables.
    2017.05.15 06:48:20.339620 [ 1 ] <Information> Application: Shutting down storages.
    2017.05.15 06:48:20.339665 [ 1 ] <Debug> Application: Shutted down storages.
    2017.05.15 06:48:20.340117 [ 1 ] <Debug> Application: Destroyed global context.
    2017.05.15 06:48:20.346461 [ 1 ] <Error> Application: Net Exception: Cannot assign requested address: [::1]:8123
    2017.05.15 06:48:20.346471 [ 1 ] <Information> Application: shutting down
    2017.05.15 06:48:20.346473 [ 1 ] <Debug> Application: Uninitializing subsystem: Logging Subsystem
    2017.05.15 06:48:20.346528 [ 2 ] <Information> BaseDaemon: Stop SignalListener thread
  • https://t.me/clickhouse_ru
    @IlyaSinelnikov #14262 06:59 AM, 15 May 2017
    Явное указание в4 помогло
  • https://t.me/clickhouse_ru
    @yaBloom #14263 06:59 AM, 15 May 2017
    Может что прояснит)
  • https://t.me/clickhouse_ru
    @yaBloom #14264 06:59 AM, 15 May 2017
    Ок, сейчас попробую
  • @iamigor #14265 07:00 AM, 15 May 2017
    мб ипв6 в ОС отключен был о_О
  • @sr_maks1 #14266 07:00 AM, 15 May 2017
    а нельзя ли в докере убрать по умолчанию v6?
  • https://t.me/clickhouse_ru
    @IlyaSinelnikov #14267 07:00 AM, 15 May 2017
    У меня в ос в6 был, но гдето комуто не додали в окружении и кликхаус не взлетал
  • https://t.me/clickhouse_ru
    @BloodJazMan #14268 07:01 AM, 15 May 2017
    Через волюм конфиг прокинь Свой
  • @iamigor ↶ Reply to #14266 #14269 07:01 AM, 15 May 2017
    а зачем? (я из интереса, не спора ради)
  • @sr_maks1 ↶ Reply to #14269 #14270 07:02 AM, 15 May 2017
    Затем что v4 пользуются все и вся. v6 - не все И при этом получить error на стадии запуска - это не самый хороший вариант.
  • https://t.me/clickhouse_ru
    @kemsa #14271 07:06 AM, 15 May 2017
    link local v6 так же у всех по умолчанию, если только намеренно не выключить, а это уже ССЗБ
  • https://t.me/clickhouse_ru
    @soyayaos #14272 07:07 AM, 15 May 2017
    По умолчанию ядро в целом предпочитает v6 на любом интерфейсе
  • https://t.me/clickhouse_ru
    @soyayaos #14273 07:07 AM, 15 May 2017
    Ядро линукса
  • @sr_maks1 #14274 07:07 AM, 15 May 2017
    Ребята спорить не буду.... может вам и виднее)) но по факту нет....
  • https://t.me/clickhouse_ru
    @soyayaos ↶ Reply to #14274 #14275 07:10 AM, 15 May 2017
    Попробуйте понизить приоритет precedence ::ffff:0:0/96 100 в /etc/gai.conf
  • @iamigor #14276 07:10 AM, 15 May 2017
    так а разве [::1] не действует аналогично и на ипв4?
    ну да ладно)
  • @f1yegor ↶ Reply to #14274 #14277 07:10 AM, 15 May 2017
    crobox/docker-clickhouse

    Clickhouse server image that only binds to IPv4. Contribute to crobox/docker-clickhouse development by creating an account on GitHub.

  • @sr_maks1 ↶ Reply to #14275 #14278 07:11 AM, 15 May 2017
    Попробуйте поработать у провайдера...
  • https://t.me/clickhouse_ru
    @soyayaos #14279 07:12 AM, 15 May 2017
    Понимаю, а явное указание интерфейса при запуске контейнера пробовали?
  • https://t.me/clickhouse_ru
    @Civiloid #14280 07:14 AM, 15 May 2017
    по стандарту же IPv6 должен иметь приоритет над IPv4
  • https://t.me/clickhouse_ru
    @yaBloom #14281 07:17 AM, 15 May 2017
    Да, спасибо! Закомментировал ::1 в конфиге
  • https://t.me/clickhouse_ru
    @yaBloom #14282 07:17 AM, 15 May 2017
    все заработало чисто на IPv4
  • https://t.me/clickhouse_ru
    @kemsa #14283 07:17 AM, 15 May 2017
    А какая разница есть ли приоритет? Главное что бы на интерфейсе lo был хоть какой-то в6 адрес, достаточно даже линк локал
  • @sr_maks1 #14284 07:18 AM, 15 May 2017
    Ребята да при чем тут стандарты? Я говорю про реальность. А реальность такая - у большинства , даже у вас, кто спорит, у большинтсва используется ipv4. Кто в настройках держит ipv6 дома например?) кому провайдер выдал ipv6? Не спорьте. Даже в компаниях достаточно больших используются ipv4.
  • https://t.me/clickhouse_ru
    @kemsa #14285 07:19 AM, 15 May 2017
    А это имеет значение для возможности биндинга на в6?
  • https://t.me/clickhouse_ru
    @IlyaSinelnikov #14286 07:21 AM, 15 May 2017
    В докере может не быть в6
  • @sr_maks1 ↶ Reply to #14286 #14287 07:22 AM, 15 May 2017
    бинго
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14284 #14288 07:23 AM, 15 May 2017
    Да понятно )
  • https://t.me/clickhouse_ru
    Пожалуйста :)
  • https://t.me/clickhouse_ru
    @kemsa ↶ Reply to #14286 #14290 07:27 AM, 15 May 2017
    Не ::1
  • https://t.me/clickhouse_ru
    @IlyaSinelnikov #14291 07:28 AM, 15 May 2017
    Что имеется ввиду?
  • https://t.me/clickhouse_ru
    @kemsa #14292 07:34 AM, 15 May 2017
    ::1 на lo существует всегда как и 127.0.0.1 пока включен стек в ядре. Если это не так, значит кто-то это изменил, а значит наверное знает, что делает и справится с этой ошибкой)
  • @milovidov_an #14293 07:42 AM, 15 May 2017
    Люди жаловались, что IPv6 выключен в ядре у какого-то известного облачного хостинга.
  • @sr_maks1 ↶ Reply to #14292 #14294 07:43 AM, 15 May 2017
    не по существу.
  • https://t.me/clickhouse_ru
    Речь конкретно о докере, а не об абстрактном линуксе
  • https://t.me/clickhouse_ru
    @kemsa ↶ Reply to #14295 #14296 07:56 AM, 15 May 2017
    Докер использует другое ядро?
  • @sr_maks1 ↶ Reply to #14296 #14297 07:56 AM, 15 May 2017
    crobox/docker-clickhouse
    docker-clickhouse - Clickhouse server image that only binds to IPv4
  • https://t.me/clickhouse_ru
    Докер использует все из хостовой системы на прямую?
  • https://t.me/clickhouse_ru
    @kemsa #14299 08:00 AM, 15 May 2017
    Ядро - да, юзерспейс - нет. Но Алексей правильно заметил, что некоторые облачные провайдеры могут выключать в6 стек глобально
  • https://t.me/clickhouse_ru
    @IlyaSinelnikov #14300 08:02 AM, 15 May 2017
    Ядро используется юзерспейсом из докера совсем не так как нативно -там как минимум вкдючаются неймспейсы, cgroups и т.п.. Если бы разница между докером и нативом была только в юзерспейсе, то вместо докера был бы просто скрипт с чрутом и образ системы
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14300 #14301 08:04 AM, 15 May 2017
    в современных линуксах неймспейсы и пр. могут использоваться процессами или системой инициализации
  • https://t.me/clickhouse_ru
    @Civiloid #14302 08:04 AM, 15 May 2017
    например если есть systemd, то процессы как минимум уже распиханы по cgroup'ам
  • https://t.me/clickhouse_ru
    @IlyaSinelnikov #14303 08:05 AM, 15 May 2017
    Могут, никто не спорит. Но это капля в море по сравнению с тем что делает докер.
  • https://t.me/clickhouse_ru
    @kemsa #14304 08:05 AM, 15 May 2017
    Но в целом Илья прав, юзерспейс может сильно менять поведение)
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14303 #14305 08:06 AM, 15 May 2017
    Докер это только юзерспейс к тем фичам, что в ядре появились примерно с 2.6.28
  • https://t.me/clickhouse_ru
    @Civiloid #14306 08:06 AM, 15 May 2017
    другое дело что netns позволяет тебе сильно играться с сетью
  • https://t.me/clickhouse_ru
    @kemsa #14307 08:07 AM, 15 May 2017
    https://docs.docker.com/engine/userguide/networking/default_network/ipv6/
    А по дефолту докер полностью выключает в6(
    Enable IPv6 support

    How to enable IPv6 support in the Docker daemon

  • https://t.me/clickhouse_ru
    Да, но где вы видели юзерспейс который этим пользуется? Я всего лишь к тому, что в общем случае условия работы в докере и в нативе достаточно сильно отличаются, хоть это и не важно для большинства приложений.
  • https://t.me/clickhouse_ru
    @IlyaSinelnikov #14309 08:08 AM, 15 May 2017
    Но эти отличия могут в некоторых случаях изменять поведение приложения достаточно сильно.
  • https://t.me/clickhouse_ru
    Вот и ответ. В образе КХ нужно тоже отключить в6 и проблема будет решена. Кому надо, тот включит.
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14308 #14311 08:09 AM, 15 May 2017
    LXD/lxc :D
  • https://t.me/clickhouse_ru
    @IlyaSinelnikov #14312 08:09 AM, 15 May 2017
    Опять частности :)
  • https://t.me/clickhouse_ru
    @IlyaSinelnikov #14313 08:09 AM, 15 May 2017
    Я думаю мой посыл понятен
  • https://t.me/clickhouse_ru
    @Civiloid #14314 08:09 AM, 15 May 2017
    в принципе systemd может всем этим пользоваться, но сервисы обычно пишут так что используется только часть
  • https://t.me/clickhouse_ru
    @Civiloid #14315 08:09 AM, 15 May 2017
    (и наверное правильно)
  • @sr_maks1 #14316 08:12 AM, 15 May 2017
    хотел проверить по ipv6. НО docker logs -f clickhouse-server
    Include not found: clickhouse_remote_servers
    Include not found: clickhouse_compression
    POCO ERROR: Exception: Could not determine local time zone: boost::filesystem::canonical: No such file or directory: "/usr/share/zoneinfo/"
    terminate called after throwing an instance of 'Poco::Exception'
    what(): Exception
  • @a_mashukov #14317 08:12 AM, 15 May 2017
    Joined.
  • @sr_maks1 #14318 08:13 AM, 15 May 2017
    😊 хорошая штука))
  • https://t.me/clickhouse_ru
    @IlyaSinelnikov #14319 08:13 AM, 15 May 2017
    У нетфликса кажется была прекрасная презентация на тему отличий докера от нативас примерами. Когда приложение видит 16 ядер и настраивает себя соответственно, а в докере ему выданы два. С остальными ресурсами тоже самое.
  • https://t.me/clickhouse_ru
    @IlyaSinelnikov #14320 08:14 AM, 15 May 2017
    Люблю такие what()
  • @sr_maks1 #14321 08:15 AM, 15 May 2017
    Ну просто я все понимаю)) но зачем собирая новый образ делать новые баги?)
  • @sr_maks1 #14322 08:15 AM, 15 May 2017
    или фичи)
  • https://t.me/clickhouse_ru
    @patrakovdg #14323 08:15 AM, 15 May 2017
    Добрый день! Есть 2 сервера в реплике. Для пользователя default установлен пароль. На одном из серверов пытаюсь удалить данные из таблицу:

    :) alter table test_table_10 drop partition 201703

    Удаление не происходит, вываливается ошибка:
    DB::Exception: Password required for user default.

    Где ему надо прописать пароль для пользователя? В документации есть пример для distributed, но у меня обычная реплика
  • https://t.me/clickhouse_ru
    @Felixoid ↶ Reply to #14323 #14324 08:17 AM, 15 May 2017
    в то самое место
    <yandex>
    <remote_servers>
    <cluster_name>
    <shard>
    <internal_replication>true</internal_replication>
    <replica>
    <user>name</name>
  • https://t.me/clickhouse_ru
    @patrakovdg #14325 08:19 AM, 15 May 2017
    у меня сейчас этой секции вообще нет в конфиге. Т.е. если у меня всего 2 сервера в реплике, я всё равно должен эту секции создать и описать 1 шард. так?
  • https://t.me/clickhouse_ru
    @Civiloid #14326 08:22 AM, 15 May 2017
    оо, новый стейбл )
  • https://t.me/clickhouse_ru
    @Civiloid #14327 08:22 AM, 15 May 2017
    пора обновляться )
  • @sr_maks1 ↶ Reply to #14316 #14328 08:22 AM, 15 May 2017
    создал issue
  • https://t.me/clickhouse_ru
    @demak0ff #14329 08:31 AM, 15 May 2017
    Joined.
  • @milovidov_an #14330 08:32 AM, 15 May 2017
    Это недоработка запроса DROP PARTITION. Он может выполняться только на реплике-лидере. Если он выполняется на другой реплике, то он проксируется из под пользователя default. Решение - напрямую отправить запрос на другую реплику.
  • @sr_maks1 ↶ Reply to #14310 #14331 08:35 AM, 15 May 2017
    2017.05.15 08:33:50.595347 [ 1 ] <Error> Application: Net Exception: Cannot assign requested address: [::1]:8123
    2017.05.15 08:33:50.595362 [ 1 ] <Information> Application: shutting down
    2017.05.15 08:33:50.595367 [ 1 ] <Debug> Application: Uninitializing subsystem: Logging Subsystem
    2017.05.15 08:33:50.595423 [ 2 ] <Information> BaseDaemon: Stop SignalListener thread
    root@Debian-87-jessie-64-minimal ~ # ip addr show
    1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
  • @sr_maks1 #14332 08:35 AM, 15 May 2017
    Это к тому что ipv6 присутствует как бы....
  • https://t.me/clickhouse_ru
    А пароль там можно указать только в открытом виде? я попробовал password_sha256_hex - не сработало
  • https://t.me/clickhouse_ru
    @Felixoid ↶ Reply to #14333 #14334 08:36 AM, 15 May 2017
    https://clickhouse.yandex/reference_ru.html#Distributed
    password - пароль для соединения с удалённым сервером, в открытом виде. по умолчанию - пустая строка.
    Документация ClickHouse | Документация ClickHouse

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • https://t.me/clickhouse_ru
    @patrakovdg #14335 08:36 AM, 15 May 2017
    спсб
  • https://t.me/clickhouse_ru
    @Felixoid #14336 08:38 AM, 15 May 2017
    судя по доке, пароль и пользователя можно задать только в кластере. Соответственно, если default запаролен, необходимо и кластер описывать
  • @sr_maks1 ↶ Reply to #14331 #14337 08:40 AM, 15 May 2017
    создал issue
  • https://t.me/clickhouse_ru
    Просто у меня в users.xml пароль для default в хэше, а в конфиге открытый - и так не работает, он всё равно ругается и требует пароль. Вот если в users.xml тоже сохранить в открытом виже - тогда работает.
  • https://t.me/clickhouse_ru
    @Fedor_Mutiev #14339 09:07 AM, 15 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @jenccnej #14340 09:28 AM, 15 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @danil_simonov #14341 09:29 AM, 15 May 2017
    Joined.
  • @ztlpn ↶ Reply to #14316 #14342 10:05 AM, 15 May 2017
    Bug #1682622 “tzdata package has been removed at 2017-04-10” : Bugs : cloud-images

    Hello! It appears that `tzdata` package has been removed from the tarball at 2017-04-10. grzesiek@debian: ubuntu $ wget https://partner-images.canonical.com/core/xenial/20170331/ubuntu-xenial-core-cloudimg-amd64.manifest grzesiek@debian: ubuntu $ wget https://partner-images.canonical.com/core/xenial/20170410/ubuntu-xenial-core-cloudimg-amd64.manifest grzesiek@debian: ubuntu $ diff * 94d93 < tzdata 2016j-0ubuntu0.16.04 In other words `tzdata` package is not present in https://partner-i...

  • @ztlpn #14343 10:06 AM, 15 May 2017
    Коллеги из ubuntu решили оптимизировать базовый образ :(
  • https://t.me/clickhouse_ru
    @mir_nomer_nol #14344 10:26 AM, 15 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @Civiloid #14345 10:41 AM, 15 May 2017
    Мне кажется, можно выставить TZ=UTC и может заработает без локальной тздаты
  • https://t.me/clickhouse_ru
    @proller #14346 10:44 AM, 15 May 2017
    по поводу совсем отключеного ipv6 - теперь есть секретное отсутствие опции <listen_host> - если ее совсем нет в конфиге - то clickhouse попробует слушать ::1 и 127.0.0.1 и НЕ вылетит при ошибке "protocol not supported".
    но при "Cannot assign requested address" все еще вылетит, если эта ошибка связана с отсутствием протокола - и ее можно добавить в игнорируемые.
    https://github.com/yandex/ClickHouse/blob/master/dbms/src/Server/Server.cpp#L557
    yandex/ClickHouse

    ClickHouse is a free analytic DBMS for big data.

  • https://t.me/clickhouse_ru
    @yaBloom #14347 11:03 AM, 15 May 2017
    Подскажите по репликации запросов, CREATE TABLE реплицируется или нет? Надо ли выполнять запрос на всех инстансах?
  • https://t.me/clickhouse_ru
    @yaBloom #14348 11:03 AM, 15 May 2017
    тупой вопрос, только начинаю вникать в тему репликации
  • https://t.me/clickhouse_ru
    @AndreevDm #14349 11:07 AM, 15 May 2017
    Надо на всех
  • https://t.me/clickhouse_ru
    @yaBloom #14350 11:09 AM, 15 May 2017
    спс!
  • https://t.me/clickhouse_ru
    @mir_nomer_nol #14351 11:49 AM, 15 May 2017
    Вопрос по созданию Distributed таблицы: как правильно написать CREATE запросы, если я хочу создать распределенную таблицу над множеством таблиц ReplicatedMergeTree так, чтобы шардирование было по materialized полю strongestIdHash UInt64 MATERIALIZED cityHash64(idType, strongestId) ? при этом это поле strongestIdHash участвует в ключе у внутренних ReplicatedMergeTree-таблиц
  • https://t.me/clickhouse_ru
    @mir_nomer_nol #14353 11:53 AM, 15 May 2017
    если в CREATE-запросе для distributed таблиц повторить описание всех полей из ReplicatedMergeTree (с дефолтами и материализед-секциями), то пишет: "DB::Exception: Not found column strongestIdHash in block. There are only columns: ."

    Если выкинуть дефолты и материализеды из запроса на создание Distributed таблицы, то не получается делать insert прямо в нее
  • https://t.me/clickhouse_ru
    @Grrrm #14354 11:58 AM, 15 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @aloneibreak #14355 12:01 PM, 15 May 2017
    коллеги
    а подскажите пожалуйста как импортировать данные в КХ из файла
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14355 #14356 12:02 PM, 15 May 2017
    формат файла какой?
  • @iamigor #14357 12:02 PM, 15 May 2017
    в документации есть примеры

    > Используем привычный запрос INSERT для вставки данных:

    echo 'INSERT INTO t VALUES (1),(2),(3)' | POST 'http://localhost:8123/'
  • https://t.me/clickhouse_ru
    tabSeparated
    только пример из доки не работает(
  • https://t.me/clickhouse_ru
    @rheinx #14359 12:03 PM, 15 May 2017
    cat filename | clickhouse-client --query="INSERT INTO ontime FORMAT CSV"
  • https://t.me/clickhouse_ru
    @rheinx #14360 12:03 PM, 15 May 2017
    какие ошибки выдает?
  • @iamigor #14361 12:04 PM, 15 May 2017
    так это, tabseparated или csv
  • https://t.me/clickhouse_ru
    @aloneibreak #14362 12:05 PM, 15 May 2017
    у меня не csv
  • https://t.me/clickhouse_ru
    @aloneibreak #14363 12:05 PM, 15 May 2017
    я сделал вывод http запроса в файл
    я так понимаю кх возвращает tabseparated
  • @iamigor #14364 12:06 PM, 15 May 2017
    падажжы. вам импортировать данные В КХ надо или ИЗ КХ?)
  • @iamigor #14365 12:06 PM, 15 May 2017
    или из кх в кх?)
  • https://t.me/clickhouse_ru
    @aloneibreak #14366 12:06 PM, 15 May 2017
    я взял данные с прод сервера и хочу на тестовый залить
  • @iamigor ↶ Reply to #14363 #14367 12:07 PM, 15 May 2017
    по умолчанию вроде TSV, да.

    cat filename | clickhouse-client --query "INSERT INTO table FORMAT TabSeparated"

    а так если, какие ошибки?
  • https://t.me/clickhouse_ru
    @aloneibreak #14368 12:07 PM, 15 May 2017
    Code: 27, e.displayText() = DB::Exception: Cannot parse input: expected \n before: \t500
  • @iamigor #14369 12:07 PM, 15 May 2017
    можно сделать head -10 filename для начала, как вариант
  • @iamigor #14370 12:07 PM, 15 May 2017
    а схемы не различаются ли?)
  • @iamigor #14371 12:08 PM, 15 May 2017
    сравните структуру таблиц
  • https://t.me/clickhouse_ru
    @aloneibreak #14372 12:08 PM, 15 May 2017
    точно одинаковые
  • https://t.me/clickhouse_ru
    @vladenisov #14373 12:17 PM, 15 May 2017
    clickhouse-client -h host-from --query="SELECT * FROM t FORMAT TSV" | sed -- 's/smth1/smth2/g' | clickhouse-client -h host-to --query="INSERT INTO t FORMAT TSV
    я таким образом данные переносил с одного сервера в другой
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14374 12:31 PM, 15 May 2017
    Доклад Cloudflare про использование Кликхауса: https://indico.dns-oarc.net/event/26/session/5/contribution/21/material/slides/1.pdf
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14375 12:31 PM, 15 May 2017
    Видео тоже есть на ютуб канале DNS OARC26.
  • https://t.me/clickhouse_ru
    @uMagistr #14376 12:36 PM, 15 May 2017
    там 5 часов видео
  • https://t.me/clickhouse_ru
    @hagen1778 #14377 12:44 PM, 15 May 2017
    а линканите видео плз
  • https://t.me/clickhouse_ru
    @uMagistr #14378 12:44 PM, 15 May 2017
    оно в обработке судя по всему
  • https://t.me/clickhouse_ru
    @uMagistr #14379 12:45 PM, 15 May 2017
    т.к там был перерыв и сейчас по днс секурити часть
  • https://t.me/clickhouse_ru
    @Arpeck #14380 01:13 PM, 15 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @irina_achkasova #14381 01:20 PM, 15 May 2017
    Добрый вечер! подскажите, пожалуйста, как изменить значение в таблице? В документации есть про добавление новых столбцов/строк, а как изменить одно значение?
  • https://t.me/clickhouse_ru
    @BloodJazMan #14382 01:21 PM, 15 May 2017
    Insert ... select в новую таблицу и потом rename
  • https://t.me/clickhouse_ru
    @BloodJazMan #14383 01:21 PM, 15 May 2017
    А вообще clickhouse предполагает write once
  • @iamigor #14384 01:22 PM, 15 May 2017
    или Collapsing-/Replacing- MergeTree
  • https://t.me/clickhouse_ru
    @irina_achkasova #14385 01:24 PM, 15 May 2017
    Спасибо. Тогда, может, есть лучший варинат хранения данных. Для аналитики надо хранить данные, типа счетчиков, то есть их постоянно придется менять.. В каком виде удобнее хранить такие данные? Видимо, вариант в таблице не очень хороший
  • https://t.me/clickhouse_ru
    @orantius #14386 01:25 PM, 15 May 2017
    если изменения имеют вид value += delta, то можно попробовать и в таблице,
  • https://t.me/clickhouse_ru
    @irina_achkasova #14387 01:26 PM, 15 May 2017
    да, именно такие, но не для всего столюца одинаковая delta
  • https://t.me/clickhouse_ru
    @orantius #14388 01:27 PM, 15 May 2017
    есть простой вариант, хранить всю историю изменений, т.е. сколько раз счетчик увеличивается, столько раз делать insert counter_id, value_delta. и потом получать значения через select sum(delta) group by counter_id. есть чуть более продвинутый вариант, когда часть этой работы на себя берет сервер.
  • https://t.me/clickhouse_ru
    @irina_achkasova #14389 01:31 PM, 15 May 2017
    этот вариант не подходит, так как в определенные моменты счетчик должен обнуляться (
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14390 01:32 PM, 15 May 2017
    храните в другом месте счетчики
  • https://t.me/clickhouse_ru
    @irina_achkasova #14391 01:32 PM, 15 May 2017
    Видимо, лучше будет вне CH хранить...
  • https://t.me/clickhouse_ru
    @irina_achkasova #14392 01:32 PM, 15 May 2017
    Спасибо
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14393 01:32 PM, 15 May 2017
    и по триггеру обсчитывайте то, что налилось в кликхаус
  • https://t.me/clickhouse_ru
    @orantius ↶ Reply to #14389 #14394 01:32 PM, 15 May 2017
    а как эти моменты выражаются в данных?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14395 01:33 PM, 15 May 2017
    так оптимальнее всего имхо
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14396 01:33 PM, 15 May 2017
    можно попробовать буфер таблицу, кстати
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14397 01:33 PM, 15 May 2017
    считать ее и потом пересоздавать :)
  • https://t.me/clickhouse_ru
    @irina_achkasova #14398 01:33 PM, 15 May 2017
    а что если изменять scv, а потом подгружать как словарь?
  • https://t.me/clickhouse_ru
    При достижении максимального значения, должно быть обнуление
  • https://t.me/clickhouse_ru
    @zloidemon #14400 01:45 PM, 15 May 2017
    А что может быть не так если запускать в docker?
    Code: 49. DB::Exception: Received from some-clickhouse-server:9000, 172.17.0.2. DB::Exception: Logical error: zero number of streams requested.
  • https://t.me/clickhouse_ru
    @orantius #14401 02:54 PM, 15 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @orantius ↶ Reply to #14399 #14402 03:19 PM, 15 May 2017
    вы можете считать modulo(sum(delta), max_value), это будет эквивалентно занулению счетчика при достижении max_value.
  • @VladimirPol #14403 03:32 PM, 15 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @tkostyan #14404 10:20 PM, 15 May 2017
    Joined.
  • 16 May 2017 (75 messages)
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14376 #14405 05:47 AM, 16 May 2017
    DNS OARC 26: Monday

    https://indico.dns-oarc.net/event/26/ Madrid, Spain

  • https://t.me/clickhouse_ru
    @Civiloid #14406 05:47 AM, 16 May 2017
    я нашел конкретное место в видео где они говорят про днс
  • https://t.me/clickhouse_ru
    @hagen1778 #14407 05:47 AM, 16 May 2017
    спс
  • https://t.me/clickhouse_ru
    @Civiloid #14408 05:47 AM, 16 May 2017
    и анализ данных в кликхаусе
  • @f1yegor #14409 06:04 AM, 16 May 2017
    2:33?
  • https://t.me/clickhouse_ru
    @Civiloid #14410 06:18 AM, 16 May 2017
    Вроде да и примерно час от того момента
  • https://t.me/clickhouse_ru
    @Civiloid #14411 06:18 AM, 16 May 2017
    У них видео не порезаны по докладам, увы
  • https://t.me/clickhouse_ru
    @sidanval #14412 07:28 AM, 16 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14413 08:19 AM, 16 May 2017
    @Civiloid спасибо!
  • @VladislavPanfilov #14414 09:44 AM, 16 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @taroff #14415 10:15 AM, 16 May 2017
    приветы! Можете по докер контейнеру помочь
  • https://t.me/clickhouse_ru
    @taroff #14416 10:15 AM, 16 May 2017
    POCO ERROR: Exception: Could not determine local time zone: boost::filesystem::canonical: No such file or directory: "/usr/share/zoneinfo/"
  • https://t.me/clickhouse_ru
    @taroff #14417 10:15 AM, 16 May 2017
    на ubuntu 16
  • https://t.me/clickhouse_ru
    @taroff #14418 10:15 AM, 16 May 2017
    terminate called after throwing an instance of 'Poco::Exception'
    what(): Exception
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14415 #14419 10:16 AM, 16 May 2017
    Вчера кто то писал что в образе убунту 16.04 отсутствует tzdata
  • https://t.me/clickhouse_ru
    @taroff #14420 10:16 AM, 16 May 2017
    не, это host система. image кликхауса стандартный из репа офицального
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14420 #14421 10:19 AM, 16 May 2017
    Собери на его базе свой, поставив tzdata.
  • https://t.me/clickhouse_ru
    @Civiloid #14422 10:19 AM, 16 May 2017
    Должно помочь
  • https://t.me/clickhouse_ru
    @Civiloid #14423 10:19 AM, 16 May 2017
    Ругань все равно на то нет zoneinfo, которые ставятся с tzdata
  • @sr_maks1 ↶ Reply to #14420 #14424 10:22 AM, 16 May 2017
    Образ clickhouse сонован на образе ubuntu (FROM ubuntu), Там в Dockerfile все расписано. Зачем убунту - неясно для меня по крайней мере , так ка убунту всегда являлась и является unstable и подходит разве только для развлекательных задач. Если создавать образ - так на основе debian.
  • https://t.me/clickhouse_ru
    @taroff #14425 10:23 AM, 16 May 2017
    выходит yandex развлекаются там у себя
  • @sr_maks1 ↶ Reply to #14425 #14426 10:24 AM, 16 May 2017
    не в курсе. Просто позиция такая что docker - хотите побаловаться - ставьте
  • https://t.me/clickhouse_ru
    @taroff #14427 10:24 AM, 16 May 2017
    ну у них и репы офицальные под убунту
  • https://t.me/clickhouse_ru
    @taroff #14428 10:24 AM, 16 May 2017
    т.е. на серверах тож она не?
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14424 #14429 10:24 AM, 16 May 2017
    это лал. Может дебиан еще и 6 использовать? Чтоб совсем стабильно было?))
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14428 #14430 10:24 AM, 16 May 2017
    да, большинство на ubuntu у них.
  • https://t.me/clickhouse_ru
    @taroff #14431 10:25 AM, 16 May 2017
    я от том же
  • @sr_maks1 ↶ Reply to #14429 #14432 10:25 AM, 16 May 2017
    Спорить не буду. Спор ни о чем.
  • https://t.me/clickhouse_ru
    @OrNixx #14433 10:26 AM, 16 May 2017
    такие ответы конечно надо из документации черпать, но всё же. как резервное копирование делается в ch ?
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14432 #14434 10:26 AM, 16 May 2017
    конечно не о чем. Голословно заявлять что система unstable в то время когда на ней крутится очень не мало прода у лидеров как минимум рунета. Яндекс, Мыло...
  • https://t.me/clickhouse_ru
    @OrNixx #14435 10:27 AM, 16 May 2017
    а дебиан-6 был хорош... :)
  • @sr_maks1 ↶ Reply to #14434 #14436 10:33 AM, 16 May 2017
    Не в курсе. из Я и мыла сведений не поступало. Вполне возможно что так оно и есть. Но Я и мыло - далеко не все компании мира
  • https://t.me/clickhouse_ru
    @OrNixx #14437 10:36 AM, 16 May 2017
    убунту LTS релизы - нормальный и долго поддерживаемый дистриб вполне пригодный для серверных инсталляций
  • https://t.me/clickhouse_ru
    @taroff #14438 10:37 AM, 16 May 2017
    да ладно вам, это флуд и холивар )
  • @sr_maks1 #14440 10:38 AM, 16 May 2017
    не знаю как актуально. Не проверял если честно. Если найдете свежую инфу либо отчекаете - скиньте ссылку
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14436 #14441 10:49 AM, 16 May 2017
    Убунта очень много где, больше чем другие дебивн по количеству установок
  • https://t.me/clickhouse_ru
    @Markon911 #14442 10:53 AM, 16 May 2017
    Вчера был фикс про tzdata в репе кликхауса, до реджестри еще не доехало. Почемуто оптимизаторы образа убунты выкинули ее.
  • @iamigor #14443 12:10 PM, 16 May 2017
    а если вставлять в таблицу данные в формате JSONEachRow, КХ не умеет обрабатывать {"x": false} как UInt8 сам, что ли? :(
    попробовал String и UInt8, ругается
  • Это легко исправить. Создайте issue, чтобы не забылось.
  • @iamigor #14445 12:14 PM, 16 May 2017
    https://github.com/yandex/ClickHouse/issues/798

    Спасибо большое :)
    Boolean JSON fields do not cast as UInt8 in JSONEachRow · Issue #798 · yandex/ClickHouse

    $ clickhouse-cli -q 'CREATE TABLE test (bool UInt8) ENGINE = Memory;' $ echo '{"bool": false}' | clickhouse-cli -q 'INSERT INTO test FORMAT JSONEachRow' Received exception from server: Cannot par...

  • @milovidov_an #14446 12:25 PM, 16 May 2017
    Если бы не митап в Екб, прямо сейчас бы пошёл и исправил :)

    Кстати, не забудьте прийти на митап в Екб.
  • https://t.me/clickhouse_ru
    @elza_ts #14447 12:56 PM, 16 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @le087 #14448 02:04 PM, 16 May 2017
    Митап начался!
  • @dr_gavrikov #14449 02:21 PM, 16 May 2017
    https://music.yandex.ru/album/3505236/track/29176168

    Яндекс нашел по запросу "КликХаус Яндекс"
    Click House — Kevin Gates

    Слушайте на Яндекс.Музыке: My click house go stupid My click house go stupid My click house go stupid My click hou-

  • @dr_gavrikov #14450 02:21 PM, 16 May 2017
    вторая ссылка
  • @DenysLamanov #14451 02:40 PM, 16 May 2017
    лол)
  • https://t.me/clickhouse_ru
    @ashedow #14452 02:49 PM, 16 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @vadimshalamov #14453 03:01 PM, 16 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @tkostyan #14454 04:01 PM, 16 May 2017
    Всем привет.

    Тут давно спрашивали, не занимался ли кто реализацией бинарного (native) протокола. Она уже есть на Go, но удивительно, что никто ещё не начал ковырять её для Python.

    Я взял на себя смелость и начал потихоньку пилить его: https://github.com/mymarilyn/clickhouse-driver. Там пока ещё много чего нет, в частности массивов, энамов, вложенных струкрур и прочего. Может кому-то это покажется полезным.

    В данный момент запиливается поддержка компрессии.
    GitHub - mymarilyn/clickhouse-driver: ClickHouse Python Driver with native interface support

    ClickHouse Python Driver with native interface support - GitHub - mymarilyn/clickhouse-driver: ClickHouse Python Driver with native interface support

  • @iamigor #14455 04:02 PM, 16 May 2017
    ништяк, спасибо!
  • @291662242 #14456 04:04 PM, 16 May 2017
    вроде как дотнет коннектор тоже работает через бинарный протокол https://github.com/killwort/ClickHouse-Net
    GitHub - killwort/ClickHouse-Net: Yandex ClickHouse fully managed .NET client

    Yandex ClickHouse fully managed .NET client. Contribute to killwort/ClickHouse-Net development by creating an account on GitHub.

  • @291662242 #14457 04:05 PM, 16 May 2017
    я юзаю из .net core, для селектов работает, компрессию lz4 поддерживает
  • @iamigor #14458 04:06 PM, 16 May 2017
    я еще для себя запилил открытую wiki с faq, но не знаю, насколько это вообще хорошая идея. если кому-нибудь интересно/полезно, будет круто.

    https://github.com/hatarist/clickhouse-faq/wiki
    hatarist/clickhouse-faq

    ¯\_(ツ)_/¯. Contribute to hatarist/clickhouse-faq development by creating an account on GitHub.

  • https://t.me/clickhouse_ru
    @kirilly4 #14459 04:32 PM, 16 May 2017
    Привет!

    Подскажите, можно ли в insert использовать значение, полученное из словаря? Получаю Code: 49. DB::Exception: Logical error: there is no global context

    Подробный лог https://pastebin.com/pY3t6SHr
  • https://t.me/clickhouse_ru
    @belomore #14460 04:36 PM, 16 May 2017
    Сто раз так делал.
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @x4mmm #14462 04:52 PM, 16 May 2017
    Митап в Екатеринбурге
  • https://t.me/clickhouse_ru
    @playboyko #14463 04:54 PM, 16 May 2017
    Добрый вечер! Столкнулся c проблемой, что MaterializedView нельзя переименовать через RENAME. Есть ли какая-нибудь возможность переименования вьюшек без дропа? Спасибо!
  • @lexa_work #14464 05:17 PM, 16 May 2017
    в tabix есть функционал "Upload CSV". Чет не соображу для чего и как его использовать?
  • это для сравнения рядом таблиц в интерфейсе, загрузку на сервер еще не сделал
  • https://t.me/clickhouse_ru
    @Stratogram #14466 06:00 PM, 16 May 2017
    Joined.
  • @agcouper #14467 06:04 PM, 16 May 2017
    Привет! А что делать, если утрачена zk нода для реплицированной таблички, но сами реплики на серверах целы? (в реплики уже давно никто не пишет, так что они должны быть вполне себе синхронизированы между собой)
  • @milovidov_an #14468 06:36 PM, 16 May 2017
    Коротко - следует использовать INSERT SELECT.
  • @milovidov_an #14469 06:36 PM, 16 May 2017
    При записи INSERT ... VALUES, значения после VALUES парсятся быстрым потоковым парсером, который не поддерживает возможность использовать вычисляемые выражения. При этом, поддержка выражений всё-таки есть, но добавлена как исключительная ветка в коде - если быстрый парсер не смог распарсить VALUES. При этом поддержка ограничена.
  • @milovidov_an #14470 06:37 PM, 16 May 2017
    Это про dictGet в INSERT ... VALUES.
  • Можно восстановить - перенести данные в соседнюю директорию. Создать пустую реплицируемую таблицу. Переместить старые данные в директорию detached в ней. Подключить данные с помощью запросов ALTER TABLE ... ATTACH PARTITION.
  • @agcouper #14472 06:40 PM, 16 May 2017
    ага, понял, спасибо!
  • Удобного способа нет. Впрочем, можно остановить сервер, переименовать вручную в файловой системе (будут две таблицы - сама materialized view, и ещё таблица с именем, начинающимся на .inner.) и запустить сервер.
  • https://t.me/clickhouse_ru
    @jack_jay #14474 07:39 PM, 16 May 2017
    Joined.
  • @shinebell #14475 09:44 PM, 16 May 2017
    Открыт код СУБД MapD Core, использующей GPU для хранения и обработки данных

    Компания MapD Technologies объявила об открытии исходных текстов СУБД MapD Core, обеспечивающей создание хранилища в оперативной памяти (IMDB - in-memory database). СУБД поддерживает SQL и оптимизирована для решения задач по анализу и визуализации данных. Код написан на языках C++ и Go, и распространяется под лицензией Apache 2.0.

  • @shinebell #14476 09:50 PM, 16 May 2017
    Для PostgreSQL развиваются механизмы ускорения за счёт привлечения GPU

    В рамках проекта PG-Strom при участии компании NEC развивается дополнение к СУБД PostgreSQL, позволяющее вынести на плечи GPU выполнение некоторых операций обработки SQL-запроса. В частности, за счёт привлечения GPU могут быть ускорены такие операции как сравнительный перебор элементов таблиц, агрегирование записей и слияние хэшей.

  • @shinebell #14477 09:50 PM, 16 May 2017
    и там же )
  • @shinebell #14478 09:50 PM, 16 May 2017
    в кх нет в планах добавить поддержку gpu ? :)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14479 10:26 PM, 16 May 2017
    Зачем?
  • 17 May 2017 (86 messages)
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14479 #14480 05:39 AM, 17 May 2017
    Для ускорения расчётов.
  • https://t.me/clickhouse_ru
    @danil_simonov #14481 06:05 AM, 17 May 2017
    Всем привет! А у кого-нибудь были кейсы использования кликхауса для решения маркетинговых задач или по оптимизации и аналитике рекламы?
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14481 #14482 06:33 AM, 17 May 2017
    Тут у 90% такие задачи.
  • https://t.me/clickhouse_ru
    @Kirill_Bayborodov #14483 07:27 AM, 17 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @mir_nomer_nol #14484 08:15 AM, 17 May 2017
    Кто-нибудь делал перешардирование данных? На всех шардах создал таблицу одинаковым запросом create, на одном из шардов налил в таблицу данные, но при попытке перешардировать их в два других шарда получаю "DB::Exception: Table is inconsistent accross shards, e.what() = DB::Exception". Что может быть не так?
  • @arsenmuk #14485 08:52 AM, 17 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @PutinVovan #14486 08:54 AM, 17 May 2017
    Всем привет. Почему при использовании in в запросах следущего вида :Select * from table1 where id in (select id from table 2 where...), select * from table1 where id in (table2). Не используется индекс по id?
  • @iamigor #14487 08:55 AM, 17 May 2017
    а че в движке указано?
  • https://t.me/clickhouse_ru
    @PutinVovan #14488 08:56 AM, 17 May 2017
    А когда непосредственно значения в in передаю - все хорошо.
    Движок MergeTree(date,(id,date),8192)
  • https://t.me/clickhouse_ru
    @hagen1778 #14489 09:01 AM, 17 May 2017
    в table2 такой же индекс?
  • https://t.me/clickhouse_ru
    Нет
  • https://t.me/clickhouse_ru
    @PutinVovan #14491 09:06 AM, 17 May 2017
    Это либо memory таблица без индекса. Либо mergetree но там индекс другой
  • https://t.me/clickhouse_ru
    @hagen1778 #14492 09:09 AM, 17 May 2017
    В описанном запросе "Select * from table1 where id in (select id from table 2 where...)" индекс должен использоваться. По крайней мере, в моем случае так и происходит
  • https://t.me/clickhouse_ru
    Очень странно...
  • https://t.me/clickhouse_ru
    @aloneibreak #14494 09:18 AM, 17 May 2017
    добрый день
    подскажите пожалуйста есть ли какая-то возможность создать VIEW поверх Distributed таблицы?
  • https://t.me/clickhouse_ru
    Вы уверены? Месяца 3 назад такой функциональности еще точно не было. Индекс использовался только для вложенных запросов с функциями сравнения, предполагающими одно значение в ответе вложенного запроса (равно, больше, меньше и тд)
  • @sr_maks1 #14496 09:52 AM, 17 May 2017
    Ребята, а с докером вообще туго? Сейчас скачал новый докер - поставил. Прописал вместо ::1 127.0.0.1
  • @sr_maks1 #14497 09:52 AM, 17 May 2017
    теперь выдает 2017.05.17 09:37:00.978636 [ 1 ] <Debug> ConfigReloader: Loading config `/etc/clickhouse-server/users.xml'
    2017.05.17 09:37:00.983014 [ 1 ] <Warning> ConfigProcessor: Include not found: clickhouse_remote_servers
    2017.05.17 09:37:00.983079 [ 1 ] <Warning> ConfigProcessor: Include not found: clickhouse_compression
    2017.05.17 09:37:00.992248 [ 1 ] <Error> Application: DB::Exception: There is no profile 'default' in configuration file.
    2017.05.17 09:37:00.992264 [ 1 ] <Information> Application: shutting down
  • @iamigor #14498 09:54 AM, 17 May 2017
    а в users.xml профиль default точно есть?
  • @sr_maks1 ↶ Reply to #14498 #14499 09:57 AM, 17 May 2017
    100%
  • @ztlpn #14500 10:07 AM, 17 May 2017
    Выглядит так, как будто у вас в users.xml содержимое config.xml
  • @sr_maks1 ↶ Reply to #14500 #14501 10:08 AM, 17 May 2017
    Проверю. Все может быть 😊
  • @sr_maks1 #14502 10:12 AM, 17 May 2017
    Глупый вопрос. Собираюсь на сервере кроме КХ держать постгресс для словариков + data integration server. Два последних сервера - в докере. Как лучше - для однообразия поместить КХ в контейнер или оставить на физическом хосте. По идее производительность КХ не должна сильно страдать.? В дальнейшем будущем собираемся делать кластер. Но на данный момент 128Г ОП должно хватить за глаза. "Безобразно но однообразно" (c) или как
  • @ztlpn #14503 10:18 AM, 17 May 2017
    (Говорю без продакшен-опыта использования докера) Думаю, что основное - правильно выбрать способ монтирования volume. Чтобы данные не терял и не тормозил.
  • @ztlpn #14504 10:19 AM, 17 May 2017
    А то в интернете достаточно страшилок
  • @sr_maks1 ↶ Reply to #14504 #14505 10:20 AM, 17 May 2017
    в интернете много страшных историй. Туда лучше не ходить)) Мы в докере на продакшне поднимали системы. Особенно удобно если поднимается глючная портированная система. Например переносили Bizagi.
  • @sr_maks1 ↶ Reply to #14503 #14506 10:21 AM, 17 May 2017
    Спасибо!
  • https://t.me/clickhouse_ru
    @etkee ↶ Reply to #14503 #14507 10:21 AM, 17 May 2017
    монтирования вроде только один существует
  • @sr_maks1 ↶ Reply to #14507 #14508 10:22 AM, 17 May 2017
    Да
  • @sr_maks1 ↶ Reply to #14507 #14509 10:22 AM, 17 May 2017
    Или про что?
  • @ztlpn #14510 10:23 AM, 17 May 2017
    Наверно, правильная терминология - storage driver. https://docs.docker.com/engine/userguide/storagedriver/selectadriver/
    Docker storage drivers

    Learn how to select the proper storage driver for your container.

  • @sr_maks1 ↶ Reply to #14510 #14511 10:23 AM, 17 May 2017
    да
  • https://t.me/clickhouse_ru
    @etkee ↶ Reply to #14508 #14512 10:23 AM, 17 May 2017
    ну если директория монтируется внутрь контейнера, то там только пробросить ее можно и все
  • @sr_maks1 ↶ Reply to #14512 #14513 10:24 AM, 17 May 2017
    Все правильно. Имелось ввиду - сторадж драйвер + монтирование
  • https://t.me/clickhouse_ru
    @etkee #14514 10:26 AM, 17 May 2017
    маунт вроде в обход union fs идет, нет?
  • @sr_maks1 ↶ Reply to #14514 #14515 10:28 AM, 17 May 2017
    я так понимаю именно так. Ну то есть если сделать -v для дата КХ то производительности и проблем с записью/чтением данных вообще не должно быть. кроме этого отпадает вопрос с сохранностью данных при краше контейнера
  • @sr_maks1 #14516 10:30 AM, 17 May 2017
    Единственный вопрос при контейнеризации - организация кластера, но и его можно решить если делать expose порты. Правда не пробовал.
  • @lexa_work #14517 01:04 PM, 17 May 2017
    Чет не соображу... есть массив значений типа [1,2,3,4] как относительного это массива сделать что-то вроде X IN [1,2,3,4]?
  • @lexa_work #14518 01:10 PM, 17 May 2017
    ClickHouse Documentation | ClickHouse Documentation

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • @lexa_work #14519 01:10 PM, 17 May 2017
    надеюсь это достаточно эффективно
  • https://t.me/clickhouse_ru
    @andrey_konyaev #14520 01:23 PM, 17 May 2017
    Товарищи, а как настроить на сервере логирование чтобы он выводил в лог всю строки INSERT на которой произошла ошибка при вставке. Ибо сейчас он выводит в лог только кусочек, а когда 150 колонок - очень не просто понять где при переливке произошёл косяк.
  • https://t.me/clickhouse_ru
    @Fiery_Fenix #14521 01:28 PM, 17 May 2017
    Поделитись кто-нибудь открытым ключем E0C56BD4, которым пакеты кликхауза подписаны, похоже его дропнули с keyserver.ubuntu.com
  • @sr_maks1 ↶ Reply to #14521 #14522 01:30 PM, 17 May 2017
    Странно только сегодня утром ставил apt-key adv —keyserver keyserver.ubuntu.com —recv E0C56BD4
  • https://t.me/clickhouse_ru
    @Fiery_Fenix #14523 01:32 PM, 17 May 2017
    gpgkeys: no key data found for http://keyserver.ubuntu.com/
    gpg: no valid OpenPGP data found.
  • @sr_maks1 ↶ Reply to #14523 #14524 01:32 PM, 17 May 2017
    сейчас гляну
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14525 01:36 PM, 17 May 2017
    а про mapd не понимаю, откуда его сравнение с CH
  • https://t.me/clickhouse_ru
    @etkee ↶ Reply to #14522 #14526 01:36 PM, 17 May 2017
    у меня в докере отработало, ключ импортнулся
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14525 #14527 01:36 PM, 17 May 2017
    никто не мешает людям сравнивать самолет с арбузом
  • https://t.me/clickhouse_ru
    @Felixoid ↶ Reply to #14494 #14528 01:36 PM, 17 May 2017
    можно, но там с использованием индексов пол года назад была проблема. А так - это ж просто аналог подзапроса
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14529 01:36 PM, 17 May 2017
    и на мой взгляд, поддержка GPU за десятки тысяч баксов несколько уходит за рамки идеологии которую сейчас поддерживает кликхаус
  • https://t.me/clickhouse_ru
    @Civiloid #14530 01:36 PM, 17 May 2017
    и потом доказывать что одно лучше другого
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14531 01:37 PM, 17 May 2017
    кликхаусом я могу проанилизировать ТЕРАБАЙТЫ на паре своих домашних ноутбуков, на которых встроенное видео на 512мб=)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14532 01:37 PM, 17 May 2017
    и лично мне нахрен эти GPU за миллионы не сдались, кому надо -купите/поставьте mapd :)
  • @artemanalytics #14533 01:40 PM, 17 May 2017
    Joined.
  • @artemanalytics #14534 01:40 PM, 17 May 2017
    Всем добрый день.
  • @artemanalytics #14535 01:41 PM, 17 May 2017
    Ребят есть в clickhouse выгрузка из яндекс метрики из коробки?
  • https://t.me/clickhouse_ru
    @kulachikova #14536 02:24 PM, 17 May 2017
    Metrica API — Connecting the Logs API to ClickHouse — Yandex Technologies

    ClickHouse allows you to work with non-aggregated statistical data from Yandex.Metrica that you receive via the Logs API. To connect the Logs API to ClickHouse:

  • https://t.me/clickhouse_ru
    @sidanval #14537 04:21 PM, 17 May 2017
    Ребят, добрый день
    Может кто подскажет, не очень понимаю как сделать
    Есть визиты, которые кладутся в базу сразу(юзерагент, ип, user_id и пр.), и есть информация которая приходит задолго после - время на странице, флаги типа был ли скролл и т.п.
    Если в обычной бд не было проблем - просто проапдейти запись и все, то как в кх это сделать?
  • https://t.me/clickhouse_ru
    @taroff #14538 04:22 PM, 17 May 2017
    еще 1 записью?
  • https://t.me/clickhouse_ru
    @pankratov #14539 04:22 PM, 17 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @rheinx #14540 04:22 PM, 17 May 2017
    Collapsingmergetree
  • https://t.me/clickhouse_ru
    @sidanval #14541 04:29 PM, 17 May 2017
    Т.е. грубо говоря мне приходит показание таймера в виде {visit_id: ..., seconds: ...}
    После я нахожу последний визит, мержу секунды и вставляю эту запись?
    Так?

    Просто смущает что это куча одиночных операций селекта, а в доке указано ограничение на 100 запросов в секунду
  • https://t.me/clickhouse_ru
    @orantius ↶ Reply to #14537 #14542 04:29 PM, 17 May 2017
    в обычной бд будут проблемы, т.к. апдейты тормозят.
  • https://t.me/clickhouse_ru
    у нас аналогично, сначала приходят данные о pageview со всей инфой, потом флаги времени на странице, скроллы и т.п., которые заполняют основную информацию, чтобы можно было сматчить с pageview, и значение для дополнительного столбца
  • https://t.me/clickhouse_ru
    @sidanval ↶ Reply to #14543 #14544 04:33 PM, 17 May 2017
    т.е. каждый раз селект предыдущей версии записи делается? а движок какой таблицы?
  • https://t.me/clickhouse_ru
    @vladenisov #14545 04:33 PM, 17 May 2017
    CollapsingMergeTree
  • https://t.me/clickhouse_ru
    @sidanval #14546 04:39 PM, 17 May 2017
    А select запросы с final? Или каждый раз полотно group by id, ua, userId,...?
  • https://t.me/clickhouse_ru
    @orantius #14547 04:40 PM, 17 May 2017
    зависит от того, что вы хотите посчитать.
  • https://t.me/clickhouse_ru
    @orantius #14548 04:41 PM, 17 May 2017
    если вам нужна последняя версия каждого объекта - то да. если нужна общая статистика - почти всегда свертка с Sign дает то что надо.
  • https://t.me/clickhouse_ru
    @sidanval #14549 05:11 PM, 17 May 2017
    Ребят, извиняюсь за тупость
    В случае с Collapsingmergetree
    Когда мне нужно изменить запись по id - я нахожу эту запись и делаю два инсерта, один - на вставку старой(найденной) записи с Sign = -1, второй - на ставку измененной записи с Sign = 1
    Правильно понимаю?
  • https://t.me/clickhouse_ru
    @Manatskov #14550 05:15 PM, 17 May 2017
    Ну да
  • https://t.me/clickhouse_ru
    @Manatskov #14551 05:15 PM, 17 May 2017
    Но только оно сразу не схлопнется в одну запись
  • @265210448 #14552 05:16 PM, 17 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @sidanval #14554 05:19 PM, 17 May 2017
    Да не, я понимаю что не схлопнется, меня sign не пугает
    Меня пугает что перед каждой правкой нужно находить предыдущую версию, когда в доке написано ограничение 100 запросов в секунду
  • https://t.me/clickhouse_ru
    @orantius #14555 05:25 PM, 17 May 2017
    в Метрике предыдущая версия живет в том числе снаружи.
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14554 #14556 05:28 PM, 17 May 2017
    Вы же понимаете что все в мире относительно? У кого то на 50 сляжет все. У кого то 1000 держать будет и не поперхнётся.
  • https://t.me/clickhouse_ru
    @sidanval ↶ Reply to #14555 #14557 05:29 PM, 17 May 2017
    Да, я понял, спасибо, так и сделаю
  • https://t.me/clickhouse_ru
    @sidanval ↶ Reply to #14556 #14558 05:30 PM, 17 May 2017
    Я понимаю)
    Обидно будет если переедем, но не до конца оттестим
    Хочется без даунтамов и серьезных изменений архитектуры после переезда
  • https://t.me/clickhouse_ru
    @orantius #14559 05:32 PM, 17 May 2017
    > что перед каждой правкой нужно находить предыдущую версию,
    для этого нужен какой-то (шардированный реплицируемый) kv-storage, на базе которого будет реализована функция (новые события,состояние)->(новое состояние,лог изменения). лог изменения писать в CH, велосипед городить свой.
  • @zaplavsky #14560 05:35 PM, 17 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @sidanval #14561 05:35 PM, 17 May 2017
    Ну это же Яндекс
    уже ждешь что там велосипед написали и выложили)
  • https://t.me/clickhouse_ru
    @orantius #14562 05:35 PM, 17 May 2017
    да можно просто метрикой пользоваться
  • https://t.me/clickhouse_ru
    @uMagistr #14563 05:50 PM, 17 May 2017
    А закешируте в аэроспайке например
  • https://t.me/clickhouse_ru
    @uMagistr #14564 05:50 PM, 17 May 2017
    А оттуда уже в кх можно выгребать
  • https://t.me/clickhouse_ru
    @uMagistr #14565 05:51 PM, 17 May 2017
    Он как раз хорошо шардируется
  • https://t.me/clickhouse_ru
    @vetinary #14566 11:48 PM, 17 May 2017
    Joined.
  • 18 May 2017 (151 messages)
  • @filonov_ae #14567 08:02 AM, 18 May 2017
    а с чем связана рекомендация относительно Float32/Float64 - "Не рекомендуется хранить числа с плавающей запятой в таблицах." ?
  • @iamigor #14568 08:02 AM, 18 May 2017
    с тем, что точность теряется, наверное
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14567 #14569 08:20 AM, 18 May 2017
    Насколько я помню тут говорили, что люди пытались делать подсчет денег на КХ и брали Float, а потом удилвлись почему сравнения нормально не работают, и почему 2.0 + 2.0 = 3.9999999994
  • @filonov_ae #14570 08:25 AM, 18 May 2017
    Ну про артефакты плавучки я в курсе, но это ж не проблема хранения в таблицах
  • https://t.me/clickhouse_ru
    я думаю тут есть ньюансы... основной в том что можно использовать энд-юзеровские решения типа GTX 1080... они как раз стоят даже дешевле чем ЦПУ.... единственное различие между такими ГПУ и теслами это стабильность работы и объемы памяти... последний факт думаю может быть наиболее важным...
  • https://t.me/clickhouse_ru
    Храните копии записей в kv-таблице
  • https://t.me/clickhouse_ru
    @elza_ts #14573 09:06 AM, 18 May 2017
    привет!
    я только начала пользоваться кх
    подскажите, как скачать данные в файл csv?
    пишу такой запрос. все как будто выполнилось, но в файле пусто.
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    А вы файл ищите: на сервере или у себя на локальной машине?
  • https://t.me/clickhouse_ru
    @Manatskov #14576 09:12 AM, 18 May 2017
    Если что, нужно второе
  • @sr_maks1 #14578 09:42 AM, 18 May 2017
    Как в конфиге КХ прописать слушать только ipv4?
  • https://t.me/clickhouse_ru
    @proller #14579 09:48 AM, 18 May 2017
    listen_host 127.0.0.1 или 0.0.0.0
  • https://t.me/clickhouse_ru
    @sidanval #14580 10:36 AM, 18 May 2017
    на дев-сервере для табикса пришлось <listen_host>::</listen_host> прописать, иначе с внешних никак не получилось подключиться
  • @blided1 #14581 11:29 AM, 18 May 2017
    Всем привет. Кликхаус ещё не научился пробрасывать where, prewhere в подзапрос представления?
  • @zaplavsky #14583 01:19 PM, 18 May 2017
    привет всем, заранее прошу прощения если помешаю вопросом :) Мы внедряем clickhouse для нашего проекта по мобильной рекламе. Кто-нибудь мог бы помочь (платно или бесплатно) с некоторыми вопросами или посоветовать кого-нибудь, кто разбирается в clickhouse?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14584 01:20 PM, 18 May 2017
    мне кажется тут вам и бесплатно помогут если вопросы будут сфорулированные)
  • @zaplavsky #14585 01:23 PM, 18 May 2017
    спасибо! лучше конечно в виде фрилансера для проекта
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #14571 #14586 01:27 PM, 18 May 2017
    Я уже писал. В чем смысл gpu, когда пока даже в памяти индексов нет. Ну будет отставание в 2-3 раза от гпу, но это всё равно в 100 раз быстрее чем с диска.
  • @zaplavsky #14587 01:27 PM, 18 May 2017
    Мы хотим писать в него трафик и делать статистический анализ. Так как мы не совсем технически подкованы то нужна помощь в этом. Например: как создать пользователей, понять как писать отдельно каждый запрос или пачками. Желательно найти человека, который бы мог по каждому вопросу поддерживать, по мере их появления.
  • https://t.me/clickhouse_ru
    @andrey_konyaev #14588 01:28 PM, 18 May 2017
    Добрый день!
    Подскажите пожалуйста настройку для изменения лимита, после которого над партицией не происходит OPTIMIZE c FINAL.
    Можно ли эту настройку передать не перезагружая сервер?
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #14570 #14589 01:29 PM, 18 May 2017
    В kdb для хранения денег используется float, но они учитывают точность при сравнении.
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14587 #14590 01:35 PM, 18 May 2017
    Мне кажется что лучше в таком случаи брать готовые сервисы, если честно :)
  • https://t.me/clickhouse_ru
    @Civiloid #14591 01:35 PM, 18 May 2017
    вам же потом поддерживать то что фрилансеры насоздают )
  • @zaplavsky #14592 01:37 PM, 18 May 2017
    штука в том, что у СТО будет это все поддерживать :) потому что он разберется с clichous'ом, но сейчас сроки поджимают, поэтому нужен знающий человек, который бы нам помог
  • https://t.me/clickhouse_ru
    @rheinx #14593 01:44 PM, 18 May 2017
    Ребят, а кто нибудь собирал под маком CH?
  • @iamigor #14594 01:45 PM, 18 May 2017
    да
  • https://t.me/clickhouse_ru
    @rheinx #14595 01:45 PM, 18 May 2017
    Удачно?))
  • @iamigor #14596 01:45 PM, 18 May 2017
    да
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14595 #14597 01:45 PM, 18 May 2017
    я собирал вчера
  • https://t.me/clickhouse_ru
    @Civiloid #14598 01:45 PM, 18 May 2017
    мастер собирается
  • https://t.me/clickhouse_ru
    @rheinx #14599 01:45 PM, 18 May 2017
    Хочу покодить маленько. Вдруг выйдет чего полезного)
  • @iamigor #14600 01:45 PM, 18 May 2017
    yandex/ClickHouse

    ClickHouse is a free analytic DBMS for big data.

  • https://t.me/clickhouse_ru
    @Civiloid #14601 01:45 PM, 18 May 2017
    стейбл нет
  • @iamigor #14602 01:46 PM, 18 May 2017
    есть еще homebrew репа, но мне лень ее обновить
  • https://t.me/clickhouse_ru
    @Civiloid #14603 01:46 PM, 18 May 2017
    плюс в дополнении к инструкции нужно cmake'у давать -DNO_WERROR
  • @iamigor #14604 01:46 PM, 18 May 2017
    а у меня стейбл отлично собрался на 10.11
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14600 #14605 01:46 PM, 18 May 2017
    Во, спасибо!
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14604 #14606 01:46 PM, 18 May 2017
    у меня не собрался, но я извращенец, я цлангом его собираю
  • @iamigor #14607 01:46 PM, 18 May 2017
    а, не, я гцц таки подключил, иначе да, иначе ошибки
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14607 #14608 01:46 PM, 18 May 2017
    я извращенец )
  • @iamigor #14609 01:46 PM, 18 May 2017
    я ж не спорю!
  • https://t.me/clickhouse_ru
    @Civiloid #14610 01:47 PM, 18 May 2017
    у меня шланг еще и ванильный, это доставляет еще больше
  • @iamigor #14611 01:47 PM, 18 May 2017
    могу себе представить
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14610 #14612 01:47 PM, 18 May 2017
    А ты знаешь толк)
  • https://t.me/clickhouse_ru
    @belomore #14613 01:47 PM, 18 May 2017
    ну все, щас флуд пойдет
  • https://t.me/clickhouse_ru
    @Civiloid #14614 01:47 PM, 18 May 2017
    у меня еще гента вместо brew :)
  • https://t.me/clickhouse_ru
    @belomore #14615 01:47 PM, 18 May 2017
    про ванильные шланги
  • https://t.me/clickhouse_ru
    @Civiloid #14616 01:48 PM, 18 May 2017
    @dudy_dud короче собирается, работает, но в продакшн на макоси его выставлять не надо
  • https://t.me/clickhouse_ru
    @Civiloid #14617 01:48 PM, 18 May 2017
    раньше были проблемы с тем что он системный malloc тянул
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14616 #14618 01:48 PM, 18 May 2017
    Даже в мыслях не было)))
  • https://t.me/clickhouse_ru
    @Civiloid #14619 01:48 PM, 18 May 2017
    а это его делало раза в 2.5-3 медленее
  • https://t.me/clickhouse_ru
    @rheinx #14620 01:49 PM, 18 May 2017
    Не хочется просто виртуалку поднимать под благородные ос
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14620 #14621 01:49 PM, 18 May 2017
    докер ) впрочем тоже виртуалка, да )
  • https://t.me/clickhouse_ru
    @alexey_laptev #14622 01:49 PM, 18 May 2017
    aws подними
  • @iamigor ↶ Reply to #14621 #14623 01:49 PM, 18 May 2017
    докер поднимет виртуалку
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14623 #14624 01:50 PM, 18 May 2017
    угу ) но прозрачно для тебя
  • https://t.me/clickhouse_ru
    @Civiloid #14625 01:50 PM, 18 May 2017
    и через HypervisorFramework же
  • https://t.me/clickhouse_ru
    @Civiloid #14626 01:50 PM, 18 May 2017
    не?
  • @iamigor #14627 01:50 PM, 18 May 2017
    да, раньше virtualbox был
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14624 #14628 01:50 PM, 18 May 2017
    Да нифига не прозрачно) ip то другой
  • @iamigor #14629 01:50 PM, 18 May 2017
    hypervisor медленнее кстати был
  • @iamigor ↶ Reply to #14628 #14630 01:50 PM, 18 May 2017
    порты пробрасываются без проблем на localhost
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14630 #14631 01:51 PM, 18 May 2017
    Ладно ладно. Просто не хочу этого непотребства на рабочей тачке)
  • https://t.me/clickhouse_ru
    @inv2004 #14632 02:07 PM, 18 May 2017
    Делаю вставку в tinylog, 10k post'ов по 10k и 1k post'ов по 1m -> получается скорость 2.5m/sec. Можно ли ожидать прироста сменив формат csv на binary? Всего 4 колонки: дата и 4 числа и один float
  • https://t.me/clickhouse_ru
    @rheinx #14633 02:19 PM, 18 May 2017
    Во что упираетесь?
  • https://t.me/clickhouse_ru
    @inv2004 #14634 02:23 PM, 18 May 2017
    Пока не готов проанализировать. Только накидал тесты.
  • https://t.me/clickhouse_ru
    @inv2004 #14635 02:23 PM, 18 May 2017
    Но вижу, что tabseparated в 1.5 раза быстрее
  • https://t.me/clickhouse_ru
    @inv2004 #14636 02:31 PM, 18 May 2017
    Вопрос: CH будет keep-alive держать с множеством Post'ов ?
  • https://t.me/clickhouse_ru
    @inv2004 #14637 02:32 PM, 18 May 2017
    Или уже чтото более нативное появилось за пару недель? Из интерфейсов в смысле.
  • @iamigor #14638 02:32 PM, 18 May 2017
    в смысле - нативное?
  • https://t.me/clickhouse_ru
    @inv2004 #14639 02:32 PM, 18 May 2017
    Не http
  • @milovidov_an #14640 02:32 PM, 18 May 2017
    Прирост от rowbinary будет. Keepalive поддерживается.
  • @iamigor #14641 02:32 PM, 18 May 2017
    на днях чел писал про нативный клиент на питоне
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14637 #14642 02:34 PM, 18 May 2017
    есть нативный интерфейс, на Го хороший очень клиент
  • https://t.me/clickhouse_ru
    @Civiloid #14643 02:34 PM, 18 May 2017
    GitHub - ClickHouse/clickhouse-go: Golang driver for ClickHouse

    Golang driver for ClickHouse. Contribute to ClickHouse/clickhouse-go development by creating an account on GitHub.

  • https://t.me/clickhouse_ru
    @pavel_odintsov #14644 02:34 PM, 18 May 2017
    C++ бы клиент улучшить!)
  • @blided1 #14645 02:43 PM, 18 May 2017
    Судя по коду всё ещё не умеет. Сейчас нет другого способа сделать абстракцию над двумя одинаковыми таблицами или хотя бы динамический алиас к одной, но с пробросом where?
  • @blided1 #14646 02:43 PM, 18 May 2017
    Всем привет. Кликхаус ещё не научился пробрасывать where, prewhere в подзапрос представления?
  • @milovidov_an #14647 02:54 PM, 18 May 2017
    Ещё не умеет.
  • https://t.me/clickhouse_ru
    @orantius #14648 02:54 PM, 18 May 2017
    мы в метрике написали свой filter pushdown.
  • https://t.me/clickhouse_ru
    @Felixoid #14649 03:15 PM, 18 May 2017
    коллеги, а здесь имеется в виду абсолютное или относительное отставание таблицы? https://github.com/yandex/ClickHouse/blob/1db9a73059880b082fa4f9c01b549597bf34e8d2/docs/ru/settings/settings.rst#max_replica_delay_for_distributed_queries
    yandex/ClickHouse

    ClickHouse is a free analytic DBMS for big data.

  • @f1yegor ↶ Reply to #14523 #14650 03:27 PM, 18 May 2017
    Добавить флаг -nogpgcheck
  • @f1yegor #14651 03:27 PM, 18 May 2017
    ?
  • https://t.me/clickhouse_ru
    @andrey_konyaev #14652 03:28 PM, 18 May 2017
    Добрый день!
    Подскажите пожалуйста настройку для изменения лимита, после которого над партицией не происходит OPTIMIZE c FINAL.
    Можно ли эту настройку передать не перезагружая сервер?
  • @ztlpn ↶ Reply to #14649 #14653 03:55 PM, 18 May 2017
    абсолютное
  • https://t.me/clickhouse_ru
    @Felixoid ↶ Reply to #14653 #14654 03:56 PM, 18 May 2017
    @AndreevDm кхм
  • @alexander_sabaev #14655 05:44 PM, 18 May 2017
    Joined.
  • @alexander_sabaev #14656 05:46 PM, 18 May 2017
    Добрый вечер. Хотел узнать как принято для кликхауса получать количество строк запроса с группировкой для пагинации. конечно можно сделать вложенный запрос - но мне какжется есть способ элегантнее.
  • @iamigor #14657 05:47 PM, 18 May 2017
    может, проще получить все результаты и разбивать на страницы на стороне?
    или запрашивать сразу одну страницу, благо LIMIT поддерживает оффсеты вроде
  • @blided1 #14658 05:51 PM, 18 May 2017
    Думаю Александр хочет получить общее количество строк после гриппировки, но до LIMIT. Грубо говоря знать сколько всего страниц будет
  • @alexander_sabaev #14659 05:51 PM, 18 May 2017
    по идее кликхаус в момент выборки с группировкой уже знает количество строк в результате. было бы отлично получать его как то в шапке ответа
  • @alexander_sabaev #14660 05:52 PM, 18 May 2017
    причем вне зависимости от лимита
  • да именно такого хочется :)
  • @blided1 #14662 05:53 PM, 18 May 2017
    можно с WITH TOTALS накостылить, только смысла нет
  • https://t.me/clickhouse_ru
    @orantius ↶ Reply to #14656 #14663 05:54 PM, 18 May 2017
    format json , rows_before_limit_at_least
  • @alexander_sabaev #14664 05:54 PM, 18 May 2017
    я тоже пробовал с ним - но агрегирующие функции суммируют и внутри группы
  • а это сейчас попробую - спасибо
  • https://t.me/clickhouse_ru
    @orantius #14666 05:56 PM, 18 May 2017
    при некоторых условиях точное число не получится, но для ряда случаев подойдет.
  • @alexander_sabaev #14667 05:57 PM, 18 May 2017
    да - я понимаю. Меня в принципе устроит. Хотя для запроса с группировкой помоему даже точно посчитать должно
  • https://t.me/clickhouse_ru
    @IrinaShh #14668 06:39 PM, 18 May 2017
    Joined.
  • @sr_maks1 #14669 09:01 PM, 18 May 2017
    Ребята подскажите - есть запрос - который возвращет время - значение. Можно ли сделать что то вроде вычисление средних (сплайнов) в зависимости от N - ну то есть если N=count - выводится все значения, если N=count/2 - тогда выводятся средние значения - медианы. Ну так далее
  • https://t.me/clickhouse_ru
    @rheinx #14670 09:22 PM, 18 May 2017
    Приведите пример ожидаемого результата.
  • https://t.me/clickhouse_ru
    @rheinx #14671 09:22 PM, 18 May 2017
    Так чёт не понятно(
  • https://t.me/clickhouse_ru
    При чем тут бд вообще?)
  • @sr_maks1 ↶ Reply to #14672 #14673 09:25 PM, 18 May 2017
    Притом что нужно получить по запросу. Да и правда нафига в бд квантили медианы и avg
  • @sr_maks1 ↶ Reply to #14670 #14674 09:25 PM, 18 May 2017
    Сейчас
  • https://t.me/clickhouse_ru
    @winogradoff #14675 09:27 PM, 18 May 2017
    То есть вы хотите по сэмплу интерполяцию какую-то для конкретной величины?
  • https://t.me/clickhouse_ru
    @javanets #14676 09:28 PM, 18 May 2017
    Видимо, автор вопроса имеет в виду интерполяцию результатов запроса, если их можно интерпретировать как временной ряд. Для построения графиков, например.
  • https://t.me/clickhouse_ru
    @rheinx #14677 09:28 PM, 18 May 2017
    Приросты чтоль?
  • @sr_maks1 ↶ Reply to #14676 #14678 09:28 PM, 18 May 2017
    да. Но не интерполяция
  • @sr_maks1 ↶ Reply to #14676 #14679 09:28 PM, 18 May 2017
    интерполяция - расширение
  • @sr_maks1 ↶ Reply to #14678 #14680 09:29 PM, 18 May 2017
    а тут наоборот сузить кол-во результатов
  • https://t.me/clickhouse_ru
    @javanets #14681 09:29 PM, 18 May 2017
    Ок, фильтрация )
  • @sr_maks1 ↶ Reply to #14681 #14682 09:29 PM, 18 May 2017
    да. С вычислением усредненных в зависимости от N
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14680 #14683 09:29 PM, 18 May 2017
    avg от полученных результатов чтоль?
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14682 #14684 09:29 PM, 18 May 2017
    Что такое N?
  • https://t.me/clickhouse_ru
    @winogradoff #14685 09:30 PM, 18 May 2017
    Что-то типа фильтрации шумов выходит
  • @sr_maks1 ↶ Reply to #14683 #14686 09:30 PM, 18 May 2017
    N - кол-во точек на временной шкале. (значение x) . Например если N = 2 а точек больше тогда надо посчитать 2 средних
  • https://t.me/clickhouse_ru
    @rheinx #14687 09:31 PM, 18 May 2017
    Что то вроде кластеризации
  • @sr_maks1 ↶ Reply to #14683 #14688 09:31 PM, 18 May 2017
    то есть получается что то в виде агрегатной функции
  • https://t.me/clickhouse_ru
    @winogradoff #14689 09:32 PM, 18 May 2017
    Но только по соседям?
  • @sr_maks1 ↶ Reply to #14689 #14690 09:32 PM, 18 May 2017
    да
  • https://t.me/clickhouse_ru
    @winogradoff #14691 09:33 PM, 18 May 2017
    Мне кажется для такого нужны оконные функции
  • https://t.me/clickhouse_ru
    @winogradoff #14692 09:33 PM, 18 May 2017
    Которых вроде ещё нет
  • @sr_maks1 #14693 09:33 PM, 18 May 2017
    ну в КХ такого нет
  • https://t.me/clickhouse_ru
    @rheinx #14694 09:33 PM, 18 May 2017
    Да, есть только лимит бай
  • https://t.me/clickhouse_ru
    @javanets #14695 09:33 PM, 18 May 2017
    Имеется в виду такая задача: есть M значений временного ряда, где M достаточно велико. Необходимо вывести N значений (N « M) таким образом, чтобы сохранить внешний вид и форму временного ряда.
  • @sr_maks1 ↶ Reply to #14695 #14696 09:34 PM, 18 May 2017
    Что то вроде этого 😊
  • https://t.me/clickhouse_ru
    @rheinx #14697 09:34 PM, 18 May 2017
    А почему просто не делать агрегацию сразу в нужном формате?
  • @sr_maks1 ↶ Reply to #14697 #14698 09:34 PM, 18 May 2017
    не получится. Только с подзапросом
  • @sr_maks1 #14699 09:35 PM, 18 May 2017
    по крайней мере у меня не получилось сделать.
  • https://t.me/clickhouse_ru
    @rheinx #14700 09:35 PM, 18 May 2017
    Ну пусть и подзапросом. Кликхаус за запросы денег не берет)
  • @sr_maks1 ↶ Reply to #14700 #14701 09:35 PM, 18 May 2017
    Хочется красиво.
  • @sr_maks1 ↶ Reply to #14700 #14702 09:36 PM, 18 May 2017
    И это удобно - для отрисовки графиков - зумирование. Задаешь кол-во точек которые нужны и получаешь точность детализации
  • https://t.me/clickhouse_ru
    @winogradoff #14703 09:36 PM, 18 May 2017
    Ну типа avg group by trunc(date, 'minute')
  • @sr_maks1 ↶ Reply to #14703 #14704 09:36 PM, 18 May 2017
    и еще N
  • https://t.me/clickhouse_ru
    @rheinx #14705 09:37 PM, 18 May 2017
    Ну можно генерить запрос в зависимости от N
  • https://t.me/clickhouse_ru
    @rheinx #14706 09:37 PM, 18 May 2017
    Group by делать по некому выражению
  • https://t.me/clickhouse_ru
    @rheinx #14707 09:38 PM, 18 May 2017
    Чтобы точно получать нужное количество
  • https://t.me/clickhouse_ru
    @orantius #14708 09:39 PM, 18 May 2017
    например можно делать select avg/median group by intDiv(t,M/N)
  • https://t.me/clickhouse_ru
    @orantius #14709 09:40 PM, 18 May 2017
    для времен произвольных округлений сейчас нет, есть фиксированный набор.
  • https://t.me/clickhouse_ru
    @orantius ↶ Reply to #14695 #14710 09:41 PM, 18 May 2017
    высокие частоты пропадут, из синуса может остаться ноль, например. хотя может это и нужно.
  • @sr_maks1 ↶ Reply to #14708 #14711 09:44 PM, 18 May 2017
    Сейчас проверю.
  • https://t.me/clickhouse_ru
    @javanets ↶ Reply to #14710 #14712 09:44 PM, 18 May 2017
    Не обязательно. Это зависит от того, как построить M точек, аппроксимирующих исходный ряд.
  • @sr_maks1 ↶ Reply to #14708 #14713 09:50 PM, 18 May 2017
    только M - нужно count сначала. Плюс наверное limit. ну и перевести date в Unixtime.
  • https://t.me/clickhouse_ru
    @orantius #14714 09:56 PM, 18 May 2017
    допустим вам нужно 100 точек за месяц. вы планировали группировать по не знаю чему, минуте, а надо по 432 минуты. либо это будет внешний запрос, в котором будет group by intDiv(номер минуты, 432) либо вы во внутреннем запросе сразу меняете выражение group by на вот это. count не нужен, нужет end-start / point length.
  • https://t.me/clickhouse_ru
    @orantius #14715 09:57 PM, 18 May 2017
    лимит вы и так знаете чему равен, он равен этой же величине, или меньше, если для некоторых точек нет данных. если вы добавите лимит, то у вас нарисуется кусок графика. обычно это не то что надо.
  • https://t.me/clickhouse_ru
    @orantius #14716 09:57 PM, 18 May 2017
    и datetime -> unixtime, да.
  • https://t.me/clickhouse_ru
    @orantius #14717 10:14 PM, 18 May 2017
    возможно более подходящим вариантом будет исходя из диапазона с данными и "разумного" количества точек брать одну из подходящих функций toStartOfX(dt) и использовать для получения точек ее. тогда сетка будет регулярной, но M будет переменным. если toStartOf функции отличаются гранулярностью не в очень много раз, то колебания у M будут тоже не очень большими. и данные, которые обычно имеют суточную/недельную цикличность, будут нарисованы с объяснимыми диапазонами в каждой точке. функции такого вида достаточно несложно добавлять. если конечно не нужна гранулярность средняя между днем и неделей.
  • https://t.me/clickhouse_ru
    @rheinx #14718 10:15 PM, 18 May 2017
    красивое решение
  • @sr_maks1 #14719 10:44 PM, 18 May 2017
    +
  • 19 May 2017 (60 messages)
  • https://t.me/clickhouse_ru
  • @Yury_Sergeev #14721 08:45 AM, 19 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @psfdek #14722 08:45 AM, 19 May 2017
    Joined.
  • @eluvium_s #14723 08:45 AM, 19 May 2017
    Joined.
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @PavelTuzov #14725 08:45 AM, 19 May 2017
    Joined.
  • @300225048 #14726 08:46 AM, 19 May 2017
    Joined.
  • @DigDiver #14727 08:56 AM, 19 May 2017
    Подскажите, а сколько нужно места на диске для Zookeera? От чего зависит объем?
  • https://t.me/clickhouse_ru
    @rheinx #14730 09:11 AM, 19 May 2017
    от количества серверов/таблиц. Места нужно не много.
  • https://t.me/clickhouse_ru
    @ssemiokhin #14731 10:06 AM, 19 May 2017
    Ребят, а какие уровни логирования есть в КХ? Чет не найду нигде
  • @milovidov_an #14732 10:13 AM, 19 May 2017
    trace, debug, information, warning, error.
  • https://t.me/clickhouse_ru
    @ssemiokhin #14733 10:21 AM, 19 May 2017
    Ага, спасибо, Алексей)
  • https://t.me/clickhouse_ru
    @TKshka #14734 11:41 AM, 19 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @salim_murtazaliev #14735 11:54 AM, 19 May 2017
    Всем привет!
    Есть ли что-то по типу ассоциативного массива в селекте ?
  • https://t.me/clickhouse_ru
    @orantius #14736 11:58 AM, 19 May 2017
    есть таблица с двумя колонками, есть словарь, а что вы хотите сделать.
  • https://t.me/clickhouse_ru
    @salim_murtazaliev #14737 12:00 PM, 19 May 2017
    SELECT [sumIf(confirmed, {cond}), sumIf(valid, {cond}] FROM tbl

    SELECT [conf => sumIf(confirmed, {cond}), valid => sumIf(valid, {cond}] FROM tbl
  • https://t.me/clickhouse_ru
    @masterdizer #14738 12:14 PM, 19 May 2017
    Как сделать, чтобы консольный клиент отрабатывал ^С? А то напрягает )
  • можете пояснить? вы хотите, чтобы в зависимости от данных выбирались разные функции?
  • https://t.me/clickhouse_ru
    @salim_murtazaliev #14740 12:25 PM, 19 May 2017
    нет, функция везде одна(суммирование), просто хочу получать ассоциативный массив
    {confirm: 123, valid: 456}
  • @kochetovnicolai #14741 12:31 PM, 19 May 2017
    возможно, стоит создать словарь: https://clickhouse.yandex/reference_ru.html#%D0%A1%D0%BB%D0%BE%D0%B2%D0%B0%D1%80%D0%B8
    Документация ClickHouse | Документация ClickHouse

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • Прописать FORMAT JSON в запросе.
  • Так пойдет?
    (trap '' INT; clickhouse —client)
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14738 #14744 01:10 PM, 19 May 2017
    странно) Я бы наоборот хотел отключить выход из клиента по ^C
  • https://t.me/clickhouse_ru
    @masterdizer #14745 01:10 PM, 19 May 2017
    не выход нужен, а удаление ввода
  • https://t.me/clickhouse_ru
    @rheinx #14746 01:12 PM, 19 May 2017
    да, было бы удобнее так
  • @iamigor #14747 01:17 PM, 19 May 2017
    в clickhouse-cli как раз так сделал
    но там много другого хорошего нету
  • https://t.me/clickhouse_ru
    @elza_ts #14748 01:59 PM, 19 May 2017
    через кликхаус хочу получить данные из метрики.
    делаю такой запрос, но почему-то кол-во просмотренных страниц почти в 2 раза выше, чем в интерфейсе метрики:
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @elza_ts #14750 01:59 PM, 19 May 2017
    в чем может быть проблема?
  • https://t.me/clickhouse_ru
    @orantius #14751 02:01 PM, 19 May 2017
    какой урл в интерфейсе метрики?
  • https://t.me/clickhouse_ru
    @peterborodatyy #14752 02:28 PM, 19 May 2017
    А нету зеркала на другом домене к репозиториям http://repo.yandex.ru/clickhouse/trusty ?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14753 02:29 PM, 19 May 2017
    в яндексе зобанили?)))
  • https://t.me/clickhouse_ru
    @peterborodatyy #14754 02:30 PM, 19 May 2017
    К сожалению наоборот :(
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14755 02:30 PM, 19 May 2017
    как вариант, взять Cloudflare и через свой домен тупо запросксировать
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14756 02:30 PM, 19 May 2017
    если ребята с Я не ограничивают по host хидеру - отработает
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14757 02:31 PM, 19 May 2017
    ограничнивают =(
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14758 02:31 PM, 19 May 2017
    по айпи открывается mirror.yandex.ru
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @DmitryBezik #14760 02:51 PM, 19 May 2017
    Joined.
  • @timofeevb #14761 03:06 PM, 19 May 2017
    Joined.
  • @TransactionTimeout #14762 03:11 PM, 19 May 2017
    А если dns поменять на 8.8.8.8?
  • https://t.me/clickhouse_ru
    @Arpeck #14763 03:14 PM, 19 May 2017
    Не поможет
  • https://t.me/clickhouse_ru
    Пока что только через медленные прокси, иначе: ping yandex.com - ping: cannot resolve yandex.com: Unknown host, и так на все домены.
  • А если по ip ping?
  • https://t.me/clickhouse_ru
    @peterborodatyy #14766 03:20 PM, 19 May 2017
    тоже самое
  • @TransactionTimeout #14767 03:21 PM, 19 May 2017
    А, ну тогда да, проксировать
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14768 03:30 PM, 19 May 2017
    ах, я кажется понял почему у вас не работает=(
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14769 03:31 PM, 19 May 2017
    вариант за CF - становится очень неплохой идеей
  • Отвлечённый вопрос - можно ли на каком-то CDN захостить статический файл (.js код), чтобы он был на общем домене и по https?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14771 04:25 PM, 19 May 2017
    cdnjs - The #1 free and open source CDN built to make life easier for developers

    Simple. Fast. Reliable. Content delivery at its finest. cdnjs is a free and open-source CDN service trusted by over 12.5% of all websites, serving over 200 billion requests each month, powered by Cloudflare. We make it faster and easier to load library files on your websites.

  • https://t.me/clickhouse_ru
    @pavel_odintsov #14772 04:26 PM, 19 May 2017
    вот тут народ раздает более-менее популярные js либы
  • @timofeevb #14773 04:53 PM, 19 May 2017
    Добрый вечер!
    Подскажите, пожалуйста, как лучше всего произвести конкатенацию двух интовых массивов? Пробовал через перевод их в строковые, split-ы и concat-ы, но split хочет константную строку, может это как-то проще делается?
  • @iamigor #14774 04:54 PM, 19 May 2017
    а просто [1,2,3] + [4,5,6] нельзя?
  • https://t.me/clickhouse_ru
    @orantius #14775 04:55 PM, 19 May 2017
    вроде уже спрашивали, надо смотреть поиском по groupArrayArrayArray
  • @Filinger #14776 05:58 PM, 19 May 2017
    Joined.
  • @renatko #14777 09:10 PM, 19 May 2017
    Привет!
    Следит ли кликхаус за обновлениями источника для таблицы с движком File?
  • @milovidov_an #14778 09:26 PM, 19 May 2017
    Для таблицы с источником File, ClickHouse выполняет чтение файла заново, при каждом SELECT-е.
  • https://t.me/clickhouse_ru
    @inv2004 #14779 09:44 PM, 19 May 2017
    Вопрос: keep-alive + чанками нормально обработка работает? Просто с keep-alive+buffer+rowbinary удалось до 21k/sec разогнать, хочется ещё разогнать чуть.
  • https://t.me/clickhouse_ru
  • @ztlpn #14781 11:48 PM, 19 May 2017
    с ClickHouse использовать пока рано: https://github.com/coreos/zetcd/issues/38
    multiop · Issue #38 · coreos/zetcd

    ZK's transactions. Haven't seen it used in the wild.

  • 20 May 2017 (3 messages)
  • @TanVD #14783 09:08 PM, 20 May 2017
    Привет :) Вопрос про ZooKeeper. Пытаюсь поднять его вместе с Clickhouse с помощью Docker Compose. Прописал три ноды и тому и другому. Если роняю любую из нод ZK кроме первой, то всё работает ок. А вот если роняю первую то Clickhouse теряет соединение и не может его установить. Такое ощущение что он опрашивает исключительно первую по индексу ноду и если она не отвечает, то к другим почему-то не переходит...
  • @TanVD #14784 09:09 PM, 20 May 2017
    Причём когда в одном из конфигов КХ прописал первой по индексу третью ноду, то эта нода КХ не упала, вместе со всеми остальными. Видимо нужно указать какой-то параметр, чтобы КХ проходил по всем нодам кластера ZK...
  • @TanVD #14785 09:26 PM, 20 May 2017
    Нашёл ошибку :) Запутался с пробросом портов. Спасибо)
  • 21 May 2017 (17 messages)
  • https://t.me/clickhouse_ru
    @emakarov #14786 10:04 AM, 21 May 2017
    подскажите как решить проблему с установкой на ubuntu 17
    там по умолчанию библиотека libc6 версии 2.24
    а clickhouse-server-base : Depends: libc6 (< 2.20)
  • https://t.me/clickhouse_ru
    @emakarov #14787 10:05 AM, 21 May 2017
    и в документации кстати неточность, не устанавливается по доке которая в Quick start
    sudo apt-get install clickhouse-server-common clickhouse-client -y
    Reading package lists... Done
    Building dependency tree
    Reading state information... Done
    Some packages could not be installed. This may mean that you have
    requested an impossible situation or if you are using the unstable
    distribution that some required packages have not yet been created
    or been moved out of Incoming.
    The following information may help to resolve the situation:

    The following packages have unmet dependencies:
    clickhouse-client : Depends: clickhouse-server-base (= 1.1.54231) but it is not going to be installed
    clickhouse-server-common : Depends: clickhouse-server-base (= 1.1.54231) but it is not going to be installed
    E: Unable to correct problems, you have held broken packages.
  • https://t.me/clickhouse_ru
    @vasya_toropov #14788 10:12 AM, 21 May 2017
    Можно из исходников собрать пакет. Это очень просто делается: https://github.com/yandex/ClickHouse/blob/master/doc/build.md
    yandex/ClickHouse

    ClickHouse is a free analytic DBMS for big data.

  • https://t.me/clickhouse_ru
    @emakarov #14789 10:12 AM, 21 May 2017
    как я понял, для 17 надо из исходников.. к
  • https://t.me/clickhouse_ru
    @umaxfun #14790 10:56 AM, 21 May 2017
    Всем привет. Подскажите, пожалуйста, как правильно построить запрос в кликхаусе. Есть таблица:
    user_id | date | flag
    1 | dt1 | 0
    1 | dt2 | 1
    2 | dt3 | 0
    2 | dt4 | 1
    3 | dt5 | 1
    нужно для каждого пользователя выбрать дату, в которую flag в первый раз стал 1, и только если до этого хоть раз был ноль. то есть запрос должен вернуть 1|dt2, 2|dt4
  • argMin(arg, val) должен вам помочь
  • @alexander_sabaev #14792 11:32 AM, 21 May 2017
    хотя нет - тут проще - отфильтруйте записи по flag=1 и в сгрупированном запросе возьмите min от даты
  • @sr_maks1 ↶ Reply to #14792 #14793 12:03 PM, 21 May 2017
    Постановка звучит так - если до этого был 0.
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14793 #14794 12:07 PM, 21 May 2017
    Селектите все у кого есть 1. Потом джойните к ним все записи с 0 и датой меньше чем 1
  • @sr_maks1 ↶ Reply to #14794 #14795 12:17 PM, 21 May 2017
    я тоже про это говорю. Но может @orantius предложит более изящный способ.
  • https://t.me/clickhouse_ru
    @umaxfun #14796 01:07 PM, 21 May 2017
    Спасибо, буду пробовать :)
  • https://t.me/clickhouse_ru
    @orantius #14797 06:40 PM, 21 May 2017
    первое что в голову пришло
    SELECT
    user_id,
    min(d_1) as md1
    FROM
    (
    SELECT
    user_id,
    date AS d_1
    FROM table
    WHERE flag = 1
    )
    ALL INNER JOIN
    (
    SELECT
    user_id,
    date AS d_0
    FROM table
    WHERE flag = 0
    ) USING (user_id)
    WHERE d_0 < d_1
    GROUP BY user_id
    SELECT
    user_id,
    arraySort(groupArray(date)) AS ds,
    arraySort((x, y) -> y, groupArray(flag), groupArray(date)) AS flags,
    arrayMap(i -> ds[i], arrayFilter(i -> ((i > 1) AND ((flags[(i - 1)] = 0) AND (flags[i] = 1))), arrayEnumerate(flags)))[1] AS d_1
    FROM table
    GROUP BY user_id
    HAVING d_1 != ''
  • https://t.me/clickhouse_ru
    @orantius #14798 06:41 PM, 21 May 2017
    также можно посмотреть на sequenceMatch.
  • https://t.me/clickhouse_ru
    @rlomonosov #14799 07:40 PM, 21 May 2017
    select user_id, minIf(date, flag=1) as d from table group by user_id having minIf(date, flag=0) < minIf(date, flag=1) and minIf(date, flag=0) > 0;
  • https://t.me/clickhouse_ru
    @orantius #14800 07:50 PM, 21 May 2017
    1,0,1?
  • https://t.me/clickhouse_ru
    @rlomonosov #14801 07:51 PM, 21 May 2017
    не вернет ничего. и не должен по условию
  • https://t.me/clickhouse_ru
    @orantius #14802 07:52 PM, 21 May 2017
    точно, я прочитал как дату первой единицы после нуля.
  • 22 May 2017 (112 messages)
  • https://t.me/clickhouse_ru
    @ilyatau #14803 07:23 AM, 22 May 2017
    Joined.
  • @VitalVas #14804 10:40 AM, 22 May 2017
    Вопрос к контрибютерам репы repo.yandex.ru
    Хочу поднять у себя публичный mirror
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14805 10:40 AM, 22 May 2017
    это хостнейм от mirror.yandex.ru
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14806 10:41 AM, 22 May 2017
    я думаю можно даже не зеркало, а прокси
  • @VitalVas #14807 10:41 AM, 22 May 2017
    Кому писать для доступов для rsync-a?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14808 10:41 AM, 22 May 2017
    ведь проблема не с доступностью, а с блокировкой
  • @VitalVas #14809 10:42 AM, 22 May 2017
    прокся не канает
  • @VitalVas #14810 10:42 AM, 22 May 2017
    хочется раз вписать в CI пути и забыть
  • @VitalVas #14811 10:43 AM, 22 May 2017
    ну и попутно в CD
  • https://t.me/clickhouse_ru
    @Felixoid ↶ Reply to #14804 #14812 10:52 AM, 22 May 2017
    я не контрибьютор, но просили передать
    rsync://mirror.yandex.ru/yandexrepo/
  • @VitalVas #14813 11:08 AM, 22 May 2017
    @Felixoid thanks!
  • @VitalVas #14814 11:28 AM, 22 May 2017
  • https://t.me/clickhouse_ru
    @Felixoid #14815 11:30 AM, 22 May 2017
    анонсик бы куда, уверен, украинским коллегам сейчас очень актуально
  • https://t.me/clickhouse_ru
    @aloneibreak #14816 11:32 AM, 22 May 2017
    подскажите, есть ли возможность что бы КХ в запросе на COUNT() таки возвращала ноль? пустой ответ как-то не очевиден
  • https://t.me/clickhouse_ru
    @orantius #14817 11:36 AM, 22 May 2017
    в будущем.
  • https://t.me/clickhouse_ru
    @Fiery_Fenix #14818 11:39 AM, 22 May 2017
    Кто б еще доку по кликхаузу зазеркалил, для украиских коллег...
  • @VitalVas #14819 11:40 AM, 22 May 2017
    если дадут доступ для rsync-а - без проблем
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @Fiery_Fenix #14821 11:48 AM, 22 May 2017
    Спасибо!
  • https://t.me/clickhouse_ru
    @Felixoid #14822 11:50 AM, 22 May 2017
    а что, https://clickhouse.yandex даже заблокировали?
    ClickHouse DBMS

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • @VitalVas #14823 11:51 AM, 22 May 2017
    вся AS13238 в блекхоле
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14824 11:52 AM, 22 May 2017
    жесть
  • https://t.me/clickhouse_ru
    Решили не морочиться с dpi :(
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14825 #14826 12:16 PM, 22 May 2017
    ага, такой dpi для бедных))
  • @DenysLamanov #14827 12:20 PM, 22 May 2017
    а зачем там dpi?
  • @DenysLamanov #14829 12:22 PM, 22 May 2017
    Отлично, спасибо
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14830 12:23 PM, 22 May 2017
    супер!
  • https://t.me/clickhouse_ru
    Спасибо!
  • https://t.me/clickhouse_ru
    @inv2004 #14832 06:49 PM, 22 May 2017
    Всё же buffer очень небыстрый если по одной строке класть :(
  • https://t.me/clickhouse_ru
    @maxlapshin #14833 07:02 PM, 22 May 2017
    немножко непонятно по словарям. У меня в /etc/clickhouse-server/config.xml дефолтная строчка: <dictionaries_config>*_dictionary.xml</dictionaries_config>
  • https://t.me/clickhouse_ru
    @maxlapshin #14834 07:03 PM, 22 May 2017
    я создал файл /etc/clickhouse-server/hostnames_dictionary.xml который начинается с: <dictionary>
    <name>hostnames</name>
  • https://t.me/clickhouse_ru
    @maxlapshin #14835 07:03 PM, 22 May 2017
    это правильно ?
  • @milovidov_an #14836 07:05 PM, 22 May 2017
    Всё Ок.
    Можно посмотреть подгруженные словари с помощью
    SELECT * FROM system.dictionaries
  • https://t.me/clickhouse_ru
    @maxlapshin #14837 07:09 PM, 22 May 2017
    вот вопрос в том: надо ли <dictionary> заворачивать внутрть <dictionaries> ?
  • @milovidov_an #14838 07:11 PM, 22 May 2017
    Надо, так как в одном файле можно объявить несколько словарей.
  • https://t.me/clickhouse_ru
    @maxlapshin #14839 07:12 PM, 22 May 2017
    ага, вот это не очень очевидно было из документации
  • https://t.me/clickhouse_ru
    @maxlapshin #14840 07:12 PM, 22 May 2017
    дальше там по select * from system.dictionaries вроде можно разобраться
  • https://t.me/clickhouse_ru
    @inv2004 #14841 07:23 PM, 22 May 2017
    Вопрос: можно ли общаться с КХ с помощью RowBinary но не через http?
  • @milovidov_an #14842 07:23 PM, 22 May 2017
    Нет. Нативный интерфейс использует обмен данными только блоками как в Native формате.
  • https://t.me/clickhouse_ru
    @inv2004 #14843 07:25 PM, 22 May 2017
    Можно ли ожидать ускорение на порядки в сравнении с rowbinary+Post?
  • @milovidov_an #14844 07:30 PM, 22 May 2017
    Какая скорость сейчас и что ожидаете?
    Только от замены RowBinary на Native разницы на порядки, скорее всего, не будет. Тем не менее, это возможно в экстремальных случаях, когда отправляете много типов фиксированной длины.
    Если скорость недостаточная, то, как правило, есть другие причины.
  • https://t.me/clickhouse_ru
    @inv2004 #14845 07:34 PM, 22 May 2017
    Я ориентируюсь на kdb, где удаётся вставить порядка 50к/с при одиночной записи. Сейчас в КХ всего около 3к (на прошлой неделе я похоже ошибся) , хотелось бы не меньше 20к.
  • https://t.me/clickhouse_ru
    @inv2004 #14846 07:35 PM, 22 May 2017
    Причина для этого - 1) хочется избавиться от внешних буферов 2) иметь данные близкие к realtime
  • @milovidov_an #14847 07:36 PM, 22 May 2017
    На типичных данных скорость вставки должна быть от 50 000 строк в секунду до 2 000 000 строк в секунду. Минимум - на широких таблицах с сотнями столбцов. Максимум - на таблицах с несколькими столбцами.
  • https://t.me/clickhouse_ru
    @inv2004 #14848 07:37 PM, 22 May 2017
    Пробовал вставку в memory а не в buffer - ничего особо не меняется -> похоже горлышко где-то в http.
  • @milovidov_an #14849 07:37 PM, 22 May 2017
    Что показывает top и perf top?
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #14847 #14850 07:37 PM, 22 May 2017
    Это про вставку по одному? Или блоками?
  • @milovidov_an #14851 07:37 PM, 22 May 2017
    Блоками. По одному - вообще не вариант.
  • https://t.me/clickhouse_ru
    @inv2004 #14852 07:38 PM, 22 May 2017
    Ну вот тут и загвоздка. Kdb быстрее, хотя в целом всё похоже.
  • https://t.me/clickhouse_ru
    @inv2004 #14853 07:39 PM, 22 May 2017
    Я надеялся, что buffer спасёт
  • @milovidov_an #14854 07:41 PM, 22 May 2017
    По одной строке без буфера на своей стороне можно вставлять так:
    - делаете POST запрос и начинаете писать данные;
    - не заканчиваете отправку тела пока не записали в него достаточное количество строк или пока не прошло достаточно времени.

    Таким образом, вы пишете по одной строке и буферизация данных происходит на стороне сервера (без использования таблиц типа Buffer).

    Главное - делать мало отдельных HTTP запросов.
  • https://t.me/clickhouse_ru
    @inv2004 #14855 07:42 PM, 22 May 2017
    Использовать сетевой буфер - понятно. Спасибо.
  • https://t.me/clickhouse_ru
    @inv2004 #14856 07:44 PM, 22 May 2017
    Но всё равно не буду оставлять попытки разогнаться. Может быть http-чанки помогут.
  • @milovidov_an #14857 07:46 PM, 22 May 2017
    Это не совсем сетевой буфер. Данные могут сразу уходить на сервер. Но сервер формирует из них блок до max_insert_block_size.
  • https://t.me/clickhouse_ru
    @inv2004 #14858 07:47 PM, 22 May 2017
    Может я не понимаю, а в чём потенциально замедление класть большое количество мелких строк на стороне КХ, если используется buffer. Я предполагал, что это просто сохранение в память. В kdb я делаю тоже самое. + думал что buffer позволит разогнаться даже быстрее.
  • @milovidov_an #14859 08:02 PM, 22 May 2017
    Если на каждую строчку делается отдельный HTTP запрос с INSERT, то сложностью является обработка HTTP запроса и INSERT-а. Можно легко посмотреть в perf top, что именно тормозит. Обычно это всякий мусор типа создания временных объектов std::string, std::shared_ptr, аллокация буферов и т. п. Такие вещи, как оверхед на один запрос, вообще не оптимизировались.
  • https://t.me/clickhouse_ru
    @inv2004 #14860 08:06 PM, 22 May 2017
    Понял, спасибо, да, мне тоже кажется что скорее всего это и тормозит. Из-за этого и думал сбежать на нативный (не очень хочется) Или чанки.
  • ^^^^ Эффективная ваставка "по 1 строке" #faq
  • В любом формате будет быстрее, если отправлять чанками, переходить на нативный не обязательно.
  • https://t.me/clickhouse_ru
    @inv2004 #14863 08:17 PM, 22 May 2017
    Да, ясно, спасибо. На kdb всё летает и из-за этого хочется чего-то похожего.
  • https://t.me/clickhouse_ru
    @rheinx #14864 08:18 PM, 22 May 2017
    Ребят, а есть ли у кого пример создания таблицы на движке File ?
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #14861 #14865 08:27 PM, 22 May 2017
    Извиняюсь, я переспрошу, так как не видел ответа - чанками это как-то можно осуществить чтобы не закрывать соединение?
  • https://t.me/clickhouse_ru
    @inv2004 #14866 08:27 PM, 22 May 2017
    Потому как при формирование такого пакета надо context-size передавать
  • @milovidov_an #14867 08:28 PM, 22 May 2017
    Можно Transfer-Encoding: chunked
  • https://t.me/clickhouse_ru
    @inv2004 #14868 08:29 PM, 22 May 2017
    Т.е. он каждый чанк тогда не будет обрабатывать как запрос? Ок
  • При создании на сервере, единственный аргумент - имя формата.
    Пример: File(TabSeparated)
    Будет использоваться файл в директории таблицы. Его имя - data.TabSeparated. С другими форматами - аналогично.

    Для чтения готового файла, заранее подложите его в директорию таблицы.

    Обычно движок таблиц FIle используется для программы clickhouse-local.
    В этом случае ему можно передать второй параметр - произвольный путь к файлу или файловый дескриптор. Файловый дескриптор в виде 0, 1 или stdin, stdout. Пример: File(TabSeparated, stdin)
  • Не будет.
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14869 #14871 08:32 PM, 22 May 2017
    А, т.е. схема ему не нужна? Правильно ли я понимаю что все столбцы будут в формате строк?
  • @milovidov_an #14872 08:33 PM, 22 May 2017
    Схема нужна.

    CREATE TABLE table (схема) ENGINE = File(TabSeparated)
  • https://t.me/clickhouse_ru
    @rheinx #14873 08:47 PM, 22 May 2017
    Ага, вроде понял. Завтра проверю. Большое спасибо!
  • https://t.me/clickhouse_ru
    @inv2004 #14875 09:02 PM, 22 May 2017
    sha_transform из kernel до 40%, даже не знаю что это.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14876 09:03 PM, 22 May 2017
    а покажите perf top целиком?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14877 09:03 PM, 22 May 2017
    sha_tranform из кернел - это оооочень странно
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14878 09:03 PM, 22 May 2017
    в ядре оно используется разве что для SYN cookie
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14879 09:03 PM, 22 May 2017
    да и-то в последних ядрах заменили на ситихэш
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @inv2004 #14881 09:04 PM, 22 May 2017
    только в таком виде пока.
  • https://t.me/clickhouse_ru
    @inv2004 #14882 09:04 PM, 22 May 2017
    Так, есть мысль, что надо обновиться.
  • https://t.me/clickhouse_ru
    @inv2004 #14883 09:05 PM, 22 May 2017
    У нас похоже для internal не самая свежая версия. Спасибо!
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14884 09:29 PM, 22 May 2017
    а это точно из ядра, а не из clickhouse?
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14886 09:29 PM, 22 May 2017
    загааадкааа
  • @milovidov_an #14887 09:29 PM, 22 May 2017
    В ClickHouse не используется просто так SHA.
  • https://t.me/clickhouse_ru
    @inv2004 #14888 09:41 PM, 22 May 2017
    => кидаться собрать последнюю версию смысла нет?
  • там с —callgraph или как-то так можно видеть дерево вызовов
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14890 09:42 PM, 22 May 2017
    я бы лучше тыкнул энтер в perf top и посмотрел, откуда идет вызов этой функции
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14891 09:42 PM, 22 May 2017
    а в dmesg нет ничего в стиле "syn flood" ?
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #14891 #14892 09:42 PM, 22 May 2017
    Не вижу
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14893 09:43 PM, 22 May 2017
    а файловая система случаем не ZFS?
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #14893 #14894 09:46 PM, 22 May 2017
    Xfs
  • а вот, perf record -g -p
  • https://t.me/clickhouse_ru
  • @yamlcoder #14897 09:55 PM, 22 May 2017
    ого, из /dev/urandom читает?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14898 09:55 PM, 22 May 2017
    похоже на то
  • @yamlcoder #14899 09:56 PM, 22 May 2017
    очень много :)
  • https://t.me/clickhouse_ru
    @inv2004 #14900 09:56 PM, 22 May 2017
    Я тут вроде не причём :)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14901 09:56 PM, 22 May 2017
    DB::Settings::... вызывает такое поведение
  • @yamlcoder #14902 09:56 PM, 22 May 2017
    DB::Settings::Set это что-то в кликхаусе, по названию оно не дложно бы вызываться слишком часто)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14903 09:56 PM, 22 May 2017
    вот да
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #14902 #14904 10:00 PM, 22 May 2017
    Ещё раз напишу что я вставляю по одной строке. Но тем не менее.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14905 10:01 PM, 22 May 2017
    слушайте, у меня есть машина с такой нагрузкой
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14906 10:01 PM, 22 May 2017
    секнду
  • https://t.me/clickhouse_ru
    @inv2004 #14907 10:02 PM, 22 May 2017
    Так что там нагружать: curl_easy_perform с одной строкой rowbinary в цикле.
  • https://t.me/clickhouse_ru
    @inv2004 #14908 10:06 PM, 22 May 2017
    В #define Apply_for_settings видно random на loadbalancing. , Если оно вообще к этому.
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14910 10:10 PM, 22 May 2017
    у меня вот так
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14911 10:11 PM, 22 May 2017
    но у меня не хттп протокол
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14912 10:11 PM, 22 May 2017
    я открываю базу 1 раз и пишу строки туда через С++ либу
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #14912 #14913 10:14 PM, 22 May 2017
    По одной за insert?
  • https://t.me/clickhouse_ru
    @inv2004 #14914 10:21 PM, 22 May 2017
    Попробую завтра с другим load_bal
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14915 10:53 PM, 22 May 2017
    Поодной да
  • 23 May 2017 (98 messages)
  • @milovidov_an #14916 12:02 AM, 23 May 2017
    SHA256 используется при проверке пароля, если для пользователя он указан в таком виде. Но порядок не совпадает, так как хэширование коротких строк - это по крайней мере миллионы в секунду, даже таким тяжёлым алгоритмом.
  • https://t.me/clickhouse_ru
    @inv2004 #14917 12:47 AM, 23 May 2017
    Сомнительно. У меня одно соединение.
  • @milovidov_an #14918 01:00 AM, 23 May 2017
    sudo perf top —call-graph dwarf
    покажет более правильные стек-трейсы.
  • https://t.me/clickhouse_ru
    @inv2004 #14919 01:29 AM, 23 May 2017
    Ok, завтра сделаю. Просто, если я правильно понимаю, то всё же при вставке в буфер ничего сложного происходить не должно, кроме обработки http.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14923 09:27 AM, 23 May 2017
    а может цурл каждый раз открывает новое соединение?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14924 09:27 AM, 23 May 2017
    и это вызывает валидацию пароля повторно?
  • https://t.me/clickhouse_ru
    @rlomonosov #14925 09:48 AM, 23 May 2017
    В http протоколе пароль проверяется на каждый запрос. Нет сущности "пароль на соединение"
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14926 09:50 AM, 23 May 2017
    ну, видимо в этом и ответ, почему столько ша1 в выдаче
  • Пока ещё это не ответ. Не совпадает количество.
  • @norberrt #14928 11:22 AM, 23 May 2017
    Joined.
  • @norberrt #14929 11:22 AM, 23 May 2017
    Всем привет! Это внутрияндексовский чат или тут действует NDA
  • @norberrt #14930 11:22 AM, 23 May 2017
    ?
  • https://t.me/clickhouse_ru
    @Felixoid #14931 11:23 AM, 23 May 2017
    это внешний чат
  • @norberrt #14932 11:23 AM, 23 May 2017
    ладно я тогда пойду в другое место :)
  • https://t.me/clickhouse_ru
    @pavel_melnichuk #14933 11:28 AM, 23 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @rheinx #14934 11:28 AM, 23 May 2017
    Но мы не против послушать))
  • https://t.me/clickhouse_ru
    @Shegloff #14935 11:46 AM, 23 May 2017
    после обновления до последней версии появилась ошибка во внешнем словаре: last_exception: Code: 36, e.displayText() = DB::Exception: Unknown key \'name[1]\' inside attribute section, e.what() = DB::Exception

    ругается вот на это:
    <name>created</name>
    <type>DateTime</type>
    <null_value>NULL</null_value>

    хотя в мускуле поле (timestamp) селектится нормально, и до обновления работало нормально. Никто не знает в чем причина?
  • @kochetovnicolai #14936 11:55 AM, 23 May 2017
    <name> случайно не дублируется?
  • https://t.me/clickhouse_ru
    @Shegloff #14937 12:07 PM, 23 May 2017
    точно, мой косяк, почему-то раньше не алертило об ошибке =)
  • https://t.me/clickhouse_ru
    @Shegloff #14938 12:07 PM, 23 May 2017
    значит никто словарем и не пользовался, можно выпиливать
  • @milovidov_an #14939 12:17 PM, 23 May 2017
    Мы планируем устроить хакатон по ClickHouse для frontend разработчиков. Основная тема - всевозможные визуализации данных, инструменты для работы с ClickHouse. Нужны ваши идеи :)
  • @alekseevgena #14940 12:26 PM, 23 May 2017
    Здравствуйте. Можно ли найти пересечение двух массивов? Не смог найти подходящие функции.
    Массивы содержат строки, и мне нужно найти элементы массива A, которые не содержатся в массиве B.
  • https://t.me/clickhouse_ru
    @borisch ↶ Reply to #14939 #14941 12:26 PM, 23 May 2017
    идеи чего? проектов для хакатона?
  • @milovidov_an #14942 12:26 PM, 23 May 2017
    Да.
  • Коллеги подсказали
    SELECT arrayFilter(x -> NOT arrayExists(y -> (y = x), ['a', 'b', 'c'] AS B), ['b', 'c', 'd', 'e', 'f'] AS A)
  • https://t.me/clickhouse_ru
    посмотреть на все возможные инструменты визуализации, сделать выводы, еще раз посмотреть, потом еще раз посмотреть, пересмотреть выводы, а потом запилить универсальную 👍🏻
  • https://t.me/clickhouse_ru
    @SLASH_CyberPunk #14945 01:12 PM, 23 May 2017
    и в open-source 😬
  • @milovidov_an #14946 01:20 PM, 23 May 2017
    За один день трудновато.
  • https://t.me/clickhouse_ru
    @orantius #14947 01:20 PM, 23 May 2017
    QueryEditor extends React.Component, вот это все.
  • https://t.me/clickhouse_ru
    @yuyugame #14948 01:37 PM, 23 May 2017
    Joined.
  • @norberrt #14949 01:41 PM, 23 May 2017
    Мне сказали что для просмотра статистики запросов к базе можно смотреть в system.query_log
  • @norberrt #14950 01:42 PM, 23 May 2017
    но позже когда я залез в документацию, то ничего такого не нашел
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #14925 #14951 01:42 PM, 23 May 2017
    т.е. надо на нативный попробовать переехать? Ок
  • @norberrt #14952 01:44 PM, 23 May 2017
    ее переименовали или теперь такой функциональности больше нет?
  • @iamigor ↶ Reply to #14952 #14953 01:46 PM, 23 May 2017
    а log_queries в настройках выставлена?
  • @iamigor #14954 01:46 PM, 23 May 2017
    FR: Slow queries log #230

    Feature request: In many databases there is "slow queries log" functionality. All information about query timing could be written to system table to keep track of all/exceeding-threshold queries. It could relate to Quotas functionality h...

  • @norberrt #14955 01:46 PM, 23 May 2017
    похоже нет
  • @norberrt #14956 01:47 PM, 23 May 2017
    Спасибо! Сейчас попробую
  • @milovidov_an #14957 01:47 PM, 23 May 2017
    Логгирование запросов включается настройкой log_queries. Настройка может быть изменена динамически, так же как все остальные настройки.
    По-умолчанию включено везде в нашем пакете и отключено в пакете для сторонних пользователей.

    Логгирование запросов полностью асинхронное. Запись сначала вставляется в очередь. Очередь блокирующая, но её максимальный размер достаточно большой, чтобы это не вызывало проблем. Затем запись из этой очереди достаёт отдельный поток и кладёт себе в массив. Периодически, этот поток сбрасывает массив, записывая данные в таблицу. Периодичность сброса по-умолчанию - 7.5 секунд. Записи, не сброшенные в таблицу, недоступны для чтения.

    По-умолчанию, запись осуществляется в таблицу system.query_log. Если таблица для записи уже существует, то проверяется соответствие её структуры текущей структуре лога. Если она не соответствует, то существующая таблица сначала переименовывается в query_log_0 или query_log_1 и т. п, а затем создаётся новая таблица, как если бы её не было. Если таблица не существует, то создаётся новая таблица с движком MergeTree.

    Проверка и создание таблицы осуществляется только один раз - при первой записи в лог. Эти действия (инициализация логгера) делаются синхронно (при первом запросе).
    Периодичность сброса и имя таблицы могут быть настроены в конфиге:

    <!— Лог запросов. Используется, только для запросов с настройкой log_queries = 1. —>
    <query_log>
    <!— В какую таблицу писать. Если таблицы нет, она создаётся.
    При изменении структуры лога, старая таблица переименовывается и создаётся новая.
    —>
    <database>system</database>
    <table>query_log</table>

    <!— Интервал сброса данных в таблицу. —>
    <flush_interval_milliseconds>7500</flush_interval_milliseconds>
    </query_log>

    При штатном завершении работы сервера, данные тоже сбрасываются в таблицу.
    Если при записи данных возникает ошибка, то данные теряются и ошибка пишется в обычный лог.
    Логгирование производится в четырёх случаях:

    В начале выполнения запроса.
    При успешном завершении запроса.
    В случае исключения до начала выполнения запроса.
    В случае исключения в середине выполнения запроса.

    Лог запросов не очищается автоматически. Для ручной очистки можно использовать запрос ALTER ... DROP PARTITION.
  • https://t.me/clickhouse_ru
    @Felixoid ↶ Reply to #14957 #14958 01:52 PM, 23 May 2017
    #faq #query_log #log_queries
  • @serlex777 #14959 01:55 PM, 23 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #14960 02:06 PM, 23 May 2017
    Добрый день, что нибудь появилось для миграций в clickhouse ?
  • https://t.me/clickhouse_ru
    Точно говорю: действует
  • https://t.me/clickhouse_ru
    Ну это, select, insert :(
  • https://t.me/clickhouse_ru
    а как же алтер столбцов
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #14964 02:09 PM, 23 May 2017
    создание новых таблиц и т.д.
  • https://t.me/clickhouse_ru
    Вот рад бы к вам как-то присоединиться. Мы как и многие делаем сейчас морду вокруг кликхауса
  • https://t.me/clickhouse_ru
    Делаешь новую таблицу и переливаешь туда
  • https://t.me/clickhouse_ru
    что к чему...
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #14968 02:11 PM, 23 May 2017
    Яндекс дайте миграции(
  • Отлично! Пока ещё не анонсировали. Наверное это где-то в конце июня будет. Сейчас только собираем идеи.
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #14968 #14970 02:11 PM, 23 May 2017
    А сами написать?)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14971 02:12 PM, 23 May 2017
    за миграции -- минус минус.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14972 02:12 PM, 23 May 2017
    это не первостепенная фича, первостепенная - кастомные шардирования)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14973 02:12 PM, 23 May 2017
    и батчер)
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #14974 02:12 PM, 23 May 2017
    о нет
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #14975 02:12 PM, 23 May 2017
    )) блин
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14973 #14976 02:12 PM, 23 May 2017
    Trivial Buffer вмержили
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14977 02:12 PM, 23 May 2017
    оооо, дай доки)
  • На всякий случай предупрежу, что он ещё не разработан. Он вмержен для удобства последующей разработки.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14979 02:13 PM, 23 May 2017
    а в чем ключевое отличие от обычноно буфера ожидается?
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #14978 #14980 02:13 PM, 23 May 2017
    не знал, видел просто что вы его смержили )
  • @milovidov_an #14981 02:15 PM, 23 May 2017
    В общем случае он ничем не лучше Buffer, и использовать его не надо.
    Подходит для специфических кейсов - когда данные вставляются пачками, но всё-таки достаточно часто. И нужно сохранять порядок вставленных блоков, а также осуществлять дедупликацию блоков.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #14982 02:15 PM, 23 May 2017
    тогда это не батчер
  • https://t.me/clickhouse_ru
    @ojowoo #14983 02:17 PM, 23 May 2017
    Привет, у нас в ZK у некоторых ReplicatedMergeTree таблиц по 19 миллионов znode-ов (при том что в system.parts у соотв. таблиц не более 500-600 записей). Похоже, это ненормально и ZK от этого нехорошо. Есть идеи, что может быть не так и как починить?
  • @ztlpn #14984 02:23 PM, 23 May 2017
    Были ли случаи добавления/удаления реплик?
  • @ztlpn #14985 02:25 PM, 23 May 2017
    Если есть старая реплика, на которой не был выполнен DROP TABLE перед выключением, записи из лога репликации не будут удаляться в надежде, что она включится.
  • https://t.me/clickhouse_ru
    @ojowoo #14986 02:27 PM, 23 May 2017
    Да, похоже, дело именно в этом. А как теперь это починить, если старой реплики уже нет и не будет?
  • @ztlpn #14987 02:31 PM, 23 May 2017
    Можно вручную удалить каталог в ZK: rmr /<path-to-table>/replicas/<replica>
  • @ztlpn #14988 02:31 PM, 23 May 2017
    Главное не перепутать с живой репликой :)
  • https://t.me/clickhouse_ru
    @ojowoo #14989 02:32 PM, 23 May 2017
    Ясно, так и подумал. Спасибо большое за быстрый ответ! :)
  • https://t.me/clickhouse_ru
    @rlomonosov #14990 02:51 PM, 23 May 2017
    Месяц назад поменялся формат записей в Zookeeper-е. С версии 3 на версию 4. Теперь новую версию КХ нельзя откатить на более старую, ругается на
    DB::Exception: Unknown ReplicatedMergeTreeLogEntry format version: 4

    Есть простой способ все-таки откатиться?
  • https://t.me/clickhouse_ru
    @erokhindima #14991 03:06 PM, 23 May 2017
    Joined.
  • @milovidov_an #14992 04:09 PM, 23 May 2017
    Простого нет, лучше всё-таки не откатываться.
    Есть только сложный.
  • https://t.me/clickhouse_ru
    Наступил на баг https://github.com/yandex/ClickHouse/pull/810 . Надо либо откатываться, либо собирать из исходников версию с патчем :(
    Fix bugs in graphite rollup. by ztlpn · Pull Request #810 · yandex/ClickHouse

    This PR fixes known problems with graphite rollup: destructive rollup with Time=0 if no pattern matches differences in row count for Path and Value columns missed output rows on the boundaries bet...

  • @milovidov_an #14994 04:15 PM, 23 May 2017
    Баг присутствовал во всех старых версиях.
  • https://t.me/clickhouse_ru
    @rlomonosov #14995 04:18 PM, 23 May 2017
    В логах ошибка "Sizes of columns doesn't match" появилась только в новых версиях (в 1.1.54135 не было). Но возможно я наступил еще в какой-то баг? Симптомы - растет количество несмердженных чанков, от этого растет потребление CPU, через пару дней cpu заканчивается совсем
  • @milovidov_an #14996 04:22 PM, 23 May 2017
    Возможно, раньше не проявлялось по другой причине. Или я ошибаюсь.
    Поставить версию из master будет нормально. Мы как раз сейчас из неё собираем релиз. Но ещё не факт, что она пойдёт в stable.
  • Мы пользуемся моими костыликами... вполне устраивает на 12 нод
  • ;) поучаствую
  • https://t.me/clickhouse_ru
    @aloneibreak #14999 04:41 PM, 23 May 2017
    подскажите плз, есть ли что-то такое что нужно знать о джойнах но не указано в доке? у меня left и inner join дают одинаковые результаты
    при том что в левой таблице на порядок больще строк чем в правой, КХ упорно выбирает все данные как по inner join'у
  • https://t.me/clickhouse_ru
    @aloneibreak #15000 04:45 PM, 23 May 2017
    например
    select count() as raw, sum(uniq_weekly), sum(uniq_daily) from idstats where country_name = 'us'
    дает что-то вроде 147933 │ 17636 │ 59033
    но
    select count(*) as raw, sum(uniq_weekly) as uniq_weekly, sum(uniq_daily) as uniq_daily, count(substep) as download from idstats any left join events using uid where substep = 'Download' and country_name = 'us'
    дает 5735 │ 684 │ 2303 │ 5735
  • https://t.me/clickhouse_ru
    @aloneibreak #15001 04:45 PM, 23 May 2017
    что как бы вообще не верно
  • https://t.me/clickhouse_ru
    Версия из мастера помогла, спасибо. Но вообще конечно повезло что уже пофиксили. Иначе не было бы дороги ни вперед, ни назад :(
  • https://t.me/clickhouse_ru
    @boris_o ↶ Reply to #15000 #15003 07:18 PM, 23 May 2017
    Почитай в документации про разницу any/all join
  • https://t.me/clickhouse_ru
    оба варианта возвращают одно и то же
    точнее разница там в пару единиц
  • https://t.me/clickhouse_ru
    @boris_o #15005 07:21 PM, 23 May 2017
    Да, действительно тут дело не в этом.
    Возможно, разные условия в where?
  • @serlex777 #15006 08:40 PM, 23 May 2017
    Подскажите плиз, что не так
    CREATE TABLE default.uri_stat_cache_new ( date Date,
    week_num UInt32,
    hash1 UInt64,
    hash2 UInt64,
    modify_date AggregateFunction(max, DateTime),
    url AggregateFunction(argMax, String, DateTime),
    domain AggregateFunction(argMax, String, DateTime),
    title AggregateFunction(argMax, String, DateTime),
    site_id AggregateFunction(argMax, UInt32, DateTime),
    count AggregateFunction(sum, UInt32)
    ) ENGINE = AggregatingMergeTree(date, (hash1, hash2, week_num), 8192)

    INSERT INTO uri_stat_cache_new(date, week_num, hash1, hash2, modify_date, url, domain, title, site_id, count) SELECT date, week_num, hash1, hash2, maxState(event_date), argMaxState(url, event_date), argMaxState(domain, event_date), argMaxState(title, event_date), argMaxState(site_id, event_date), sumState(count) FROM uri_stat_cache GROUP BY date, week_num, hash1, hash2;

    Данные заливает, но

    вот этот запрос

    SELECT week_num, hash1, hash2, update_date, count, argMaxMerge(url, update_date) FROM (SELECT week_num, hash1, hash2, maxMerge(modify_date) AS update_date, argMaxState(url, modify_date) AS url, sumMerge(count) AS count FROM uri_stat_cache_new GROUP BY week_num, hash1, hash2) LIMIT 10;

    выдает: DB::Exception: Incorrect number of arguments for aggregate function argMaxMerge.

    если убираю argMaxMerge(url, update_date) все ОК
  • @milovidov_an #15007 09:35 PM, 23 May 2017
    Все функции -Merge принимают один аргумент - состояние агрегатной функции. Для функции argMax, состояние уже содержит запомненные аргументы arg и max, и для объединения состояний (как и для любых других агрегатных функций) ничего больше не нужно.
  • https://t.me/clickhouse_ru
    @inv2004 #15008 09:46 PM, 23 May 2017
    Мда, через native скорость упала ещё в разы, до ~20 в секунду. Может дело в библиотеке клиента - не знаю. Так как cpu почти не загружен. ... компрессия ... отключена.
  • @milovidov_an #15009 09:55 PM, 23 May 2017
    Нет никакого смысла отправлять по одной строке в формате Native. Этот формат ориентирован именно на пачки данных.
  • https://t.me/clickhouse_ru
    @inv2004 #15010 09:56 PM, 23 May 2017
    Хочется lowlatency
  • https://t.me/clickhouse_ru
    @inv2004 #15011 09:57 PM, 23 May 2017
    Вчера оказалось что post тоже не подходит по причине того что там каждый раз шифруется пароль.
  • https://t.me/clickhouse_ru
    @inv2004 #15012 09:57 PM, 23 May 2017
    Но что-то в 25 строк в секунду верится с трудом. Да, у native немного больше оверхед на мету, но 25/с тут явно не в этом дело.
  • @milovidov_an #15013 09:58 PM, 23 May 2017
    Latency вставки - от сотен мс. Latency чтения от единиц мс. в самых простых случаях.
  • https://t.me/clickhouse_ru
    @inv2004 #15014 10:18 PM, 23 May 2017
    Но тем не менее http+rowbinary всё же около 3000 выдаёт. Понимаю что не особо рекомендуемое использование, но всё же.
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #15014 #15015 11:32 PM, 23 May 2017
    Делая вставки по 1 просто потом огребешь веселые мержи.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15016 11:53 PM, 23 May 2017
    А чем буфер таблица не угодила?
  • 24 May 2017 (75 messages)
  • https://t.me/clickhouse_ru
    @inv2004 #15017 12:25 AM, 24 May 2017
    Так я в Buffer и вставляю. Я так понимаю он и должен собрать данные чтобы потом не было очень много мерджей.
  • https://t.me/clickhouse_ru
    @Civiloid #15018 12:26 AM, 24 May 2017
    @inv2004 в общем случаи нельзя оптимизировать под latency и скорость вставки пачками одновременно. Кх оптимизирован под последнее
  • https://t.me/clickhouse_ru
    @Civiloid #15019 12:26 AM, 24 May 2017
    И не надо из него делать то к чему он не предназначен
  • https://t.me/clickhouse_ru
    @inv2004 #15020 12:30 AM, 24 May 2017
    Да, Я понимаю, просто хотел понять предел какой возможный. В данный момент он не ясен: при вставке post - упирается в sha пустого пароля но все же 3к, а вот с native не считает пароль, но производительность всё равно упала аж в 100 раз.
  • https://t.me/clickhouse_ru
    @inv2004 #15021 01:12 AM, 24 May 2017
    Я просто объясню. Есть задача, на которую неплохо ложится кдб, которая имеет ~ аналогичную векторную структуру, при этом является довольно универсальной. У КХ тоже есть преимущества, но просто хочется понять основные моменты которые он сможет покрыть, а что не сможет. При этом, КХ и кдб кажутся довольно близкими родственниками.
  • https://t.me/clickhouse_ru
    @Civiloid #15022 03:21 AM, 24 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @AlexandraBogdanova #15023 08:12 AM, 24 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @and_sm #15024 08:25 AM, 24 May 2017
    Добрый день! Подскажите пожалуйста, каким образом можно указывать таймзону в виде смещения от UTC вместо использования имён часовых поясов при работе с датами?
  • https://t.me/clickhouse_ru
    @Manatskov #15025 08:59 AM, 24 May 2017
    Например, найти имена поясов, соответствующих смещению
  • https://t.me/clickhouse_ru
    @Manatskov #15026 08:59 AM, 24 May 2017
    Таймзона — это же больше, чем смещение по utc
  • https://t.me/clickhouse_ru
    @maxlapshin #15027 08:59 AM, 24 May 2017
    вот с апдейтами самая грустная ситуация в вещах типа user agent
  • https://t.me/clickhouse_ru
    @maxlapshin #15028 09:00 AM, 24 May 2017
    у нас очень много нераспознающихся useragent и приходится править тот код, который парсит, а следовательно приходится апдейтить таблицу
  • https://t.me/clickhouse_ru
    @maxlapshin #15029 09:00 AM, 24 May 2017
    апдейтить её нельзя
  • https://t.me/clickhouse_ru
    @rheinx #15030 09:01 AM, 24 May 2017
    Useragent можно писать в рядом стоящую sql базу, а в CH вытаскивать через словарь например
  • https://t.me/clickhouse_ru
    @Manatskov #15031 09:02 AM, 24 May 2017
    Ну так да
  • https://t.me/clickhouse_ru
    @Manatskov #15032 09:02 AM, 24 May 2017
    Или сделать внешний словарь в кх в памяти на цсв
  • https://t.me/clickhouse_ru
    @maxlapshin #15033 09:02 AM, 24 May 2017
    сейчас у нас 275961 разных useragent
  • https://t.me/clickhouse_ru
    @Manatskov #15034 09:03 AM, 24 May 2017
    Немного
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #15033 #15035 09:03 AM, 24 May 2017
    ну это ж вообще не о чем.
  • https://t.me/clickhouse_ru
    @Manatskov #15036 09:03 AM, 24 May 2017
    Поместится во что угодно
  • https://t.me/clickhouse_ru
    @maxlapshin #15037 09:04 AM, 24 May 2017
    а если я захочу сделать распределение по операционным системам, то это будет норм?
  • https://t.me/clickhouse_ru
    @Manatskov #15038 09:04 AM, 24 May 2017
    А почему это должно стать не норм?
  • https://t.me/clickhouse_ru
    @maxlapshin #15039 09:04 AM, 24 May 2017
    кликхаус сделает 270 тыс лукапов к словарю, приклеит и всё агрегирует?
  • https://t.me/clickhouse_ru
    @maxlapshin #15040 09:04 AM, 24 May 2017
    сейчас у нас поле операционная система лежит в строке
  • https://t.me/clickhouse_ru
    @Manatskov #15041 09:04 AM, 24 May 2017
    Э
  • https://t.me/clickhouse_ru
    @maxlapshin #15042 09:04 AM, 24 May 2017
    а тут будет снаружи
  • @iamigor #15043 09:04 AM, 24 May 2017
    так словарь же целиком в оперативку грузится вроде, потом лукапы в оперативку дешевые получаются, не?
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15044 09:04 AM, 24 May 2017
    ну словарь же по факту С++ ный хэш
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15045 09:04 AM, 24 May 2017
    а это ОЧЕНЬ БЫСТРО
  • https://t.me/clickhouse_ru
    @Manatskov #15046 09:05 AM, 24 May 2017
    Кликхаус внешние словари подтягивает в память с некоторой частотой. Это хэш-таблица
  • https://t.me/clickhouse_ru
    @maxlapshin #15047 09:05 AM, 24 May 2017
    оок
  • https://t.me/clickhouse_ru
    @maxlapshin #15048 09:05 AM, 24 May 2017
    звучит что надо именно так делать
  • https://t.me/clickhouse_ru
    @Manatskov #15049 09:05 AM, 24 May 2017
    Только правильно настройте частоту обновления и всё такое
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15050 09:05 AM, 24 May 2017
    std::unordered_map C++11: 2.0 mega ops per second
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15051 09:05 AM, 24 May 2017
    ну вот как-то так в синтетических тестах оно работает :)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15052 09:05 AM, 24 May 2017
    std::map: 0.8 mega ops per second
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15053 09:06 AM, 24 May 2017
    ну и это на 1 поток процессора, ессна
  • @ztlpn ↶ Reply to #15024 #15054 09:06 AM, 24 May 2017
    Обычно в базе таймзон есть набор псевдотаймзон типа Etc/GMT-3, только там оффсеты идут в другую сторону - например Etc/GMT-3 это сейчас как раз московское время.
  • @serlex777 #15056 09:08 AM, 24 May 2017
    Подскажите пожалуйста, когда стоит увеличивать гранулированность индекса? Как я понимаю чем больше строк в куске тем меньше места занимает вся таблица?
  • https://t.me/clickhouse_ru
    @and_sm ↶ Reply to #15054 #15057 09:11 AM, 24 May 2017
    Спасибо! Этот вариант мне подходит.
  • https://t.me/clickhouse_ru
    @WladySpb #15058 10:42 AM, 24 May 2017
    Такой вопрос, нормально ли кликхаус скушает такую выборку в селекте - concat(toString(round(click/show*100)), '%') as CTR, или лучше такие вычисления делать уже в коде? (на тестовом стенде, естественно всё работает прекрасно, интерсно именно не будут ли тупить вычисления на больших объёмах данных)
  • https://t.me/clickhouse_ru
    @Felixoid #15059 11:32 AM, 24 May 2017
    Если я мигрирую zookeeper с трёх нод на другие три в несколько этапов:
    0. Машинки 1, 2 и 3 надо перевезти на 1, 4 и 5 с переналивкой первой.
    1. Наливаю машины 4 и 5, добавляю их в кластер, жду, пока догонится ZK
    2. Переналиваю машину 1, восстанавливаю на ней ЗК
    3. Убираю ноды 2 и 3

    Если я в этот момент пропишу в clickhouse все 5 нод, то он себя будет нормально чувствовать при пертурбациях?
    Если прописать дополнительные две ноды до того, как они станут доступны, как он поведёт себя в этом случае?
  • https://t.me/clickhouse_ru
    @emakarov #15060 11:37 AM, 24 May 2017
    столкнулся вот с таким багом, который уже в статусе “закрыт”
    https://github.com/yandex/ClickHouse/issues/246
    мои комментарии внизу тикета. кто может что посоветовать?
    Logical error: zero number of streams requested · Issue #246 · yandex/ClickHouse

    Ubuntu 14.04, установлена по документации, конфиги дефолтные. Запросы вида CREATE TABLE, SHOW CREATE TABLE проходят успешно, но на SELECT 1, SELECT * FROM и т.п выдает ошибку: Received exception ...

  • https://t.me/clickhouse_ru
    Получается что для того что бы это правильно сделать, можно не делать миграцию, а сначала сделать словарь, попробовать и лишь потом мигрировать таблицу
  • https://t.me/clickhouse_ru
    @Manatskov #15062 11:51 AM, 24 May 2017
    Ну вам не нужна миграция, чтобы попробовать запросы, которые используют внешние словари
  • https://t.me/clickhouse_ru
    @maxlapshin #15063 11:53 AM, 24 May 2017
    Ага, вот я об этом
  • 5 живых реплик - нормально. Как раз хороший способ для миграции реплик между серверами - добавить новые реплики, потом удалить старые.

    В редких случаях может быть проблема с увеличением нагрузки на сеть или с количеством одновременных соединений для скачивания данных, а также с нагрузкой на диск при скачивании с одной реплики большим количеством других.
  • Увеличивать гранулированность индекса (делать больше 8192) почти никогда не стоит. Изредка имеет смысл уменьшить.
  • https://t.me/clickhouse_ru
    @Felixoid ↶ Reply to #15064 #15066 03:07 PM, 24 May 2017
    Я про ноды зк, кх никуда не едет и только меняется конфиг, который относится к zookeeper
  • @milovidov_an #15067 03:08 PM, 24 May 2017
    Гранулированность индекса влияет на время обработки коротких запросов (уменьшение index_granularity приводит к уменьшению latency) и на потребление оперативки (уменьшение index_granularity приводит к кратному увеличению потребления оперативки). Текущее потребление оперативки можно посмотреть в таблице system.parts - столбцы, относящиеся к primary key.
  • @milovidov_an #15068 03:10 PM, 24 May 2017
    Если сильно уменьшить index_granularity, то latency сильно меньше не будет, но вот оперативки будет потребляться больше.
  • Про ноды ZK не могу сказать - постоянно с 5 нодами не пробовали работать. Вроде бы наши админы один раз делали миграцию ZK как раз путём временного увеличения числа нод.
  • Зря закрыт. Видимо закрыли после сообщения "выставить вручную max_threads помогает". Придётся разбираться дальше.

    Можете дать мне ssh+sudo доступ к своей виртуалке, где воспроизводится проблема (пишите в личку). А то нам придётся заводить такую же виртуалку самим, а до этого ещё не дошли руки.
  • @milovidov_an #15071 03:14 PM, 24 May 2017
    Выложили на сайт презентацию с митапа в Екатеринбурге:
    https://clickhouse.yandex/presentations/meetup6/#
    (пока доступна только первая, вступительная презентация)

    А также с конференции UWDC в Челябинске:
    https://clickhouse.yandex/presentations/uwdc/#cover
  • https://t.me/clickhouse_ru
    @Felixoid ↶ Reply to #15069 #15072 03:14 PM, 24 May 2017
    спасибо, буду сапёром, значит
  • https://t.me/clickhouse_ru
    @Shegloff #15073 03:33 PM, 24 May 2017
    OPTIMIZE TABLE реплицируется?
  • https://t.me/clickhouse_ru
    @Shegloff #15074 03:38 PM, 24 May 2017
    да, проверил сам )
  • Незнаю как в С++, но в java client динамически менять состав ZK серверов нельзя было. Оно резолвило все при старте и потом работало только с ними.
  • https://t.me/clickhouse_ru
    @inv2004 #15076 04:02 PM, 24 May 2017
    Можно ли как-то сделать make install, но не собирая тесты?
  • https://t.me/clickhouse_ru
    @proller #15077 04:29 PM, 24 May 2017
    cmake -DENABLE_TESTS=0
  • » Движок таблиц Dictionary, движок баз данных Dictionary

    То есть появятся словари на основе таблиц? Или словари будут видны как таблицы?
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #15078 #15079 05:20 PM, 24 May 2017
    Было бы здорово, так как добавлять в словарь сейчас не совсем удобно.
  • Это я нашел в разделе планов развития в Екатеринбургской презентации
  • Любые словари будут доступны в виде таблиц, позволяющих посмотреть содержимое словаря.
  • @serlex777 #15083 07:23 PM, 24 May 2017
    Скажите плиз, а есть возможность принудительно дернуть обновление словаря?
  • https://t.me/clickhouse_ru
    @inv2004 #15084 07:24 PM, 24 May 2017
    Просто для информации: дело было не в пароле: uuid генерился из random => прямая передача query_id позволила разогнать мелкие вставки в два раза. Теперь видно что всё упирается в new, что ок. На чём этот странный эксперимент и заканчиваю. :)
  • Пока нет. Если смотрели слайды митапа, там есть пункт - запрос SYSTEM - как раз для этого.
  • Забавно, что я как раз сейчас это исправляю.
  • https://t.me/clickhouse_ru
    Если не средствами SQL -- то самое простое touch файла с описанием словаря.
  • спасибо
  • https://t.me/clickhouse_ru
    @firuzkosimov #15089 09:12 PM, 24 May 2017
    Joined.
  • @Imawarenow #15091 11:14 PM, 24 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @Cir0p #15092 11:33 PM, 24 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @Cir0p #15093 11:35 PM, 24 May 2017
    Всем привет! Ребята, подскажите пожалуйста правильный вариант запроса. Есть таблица с полями id, name, amount, created_at. Нужно сделать запрос на сумму по amount за последнюю неделю с гранулярностью 15 минут. как сделать??
  • 25 May 2017 (105 messages)
  • https://t.me/clickhouse_ru
    @orantius #15094 12:10 AM, 25 May 2017
    Документация ClickHouse | Документация ClickHouse

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • Если именно 15 минут надо, то можно так
    toDateTime(intDiv(toUInt32(created_at), 900)*900)
    вместо toStartOfFiveMinute
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #15087 #15096 06:50 AM, 25 May 2017
    А как можно обновить словарь средствами SQL?
  • https://t.me/clickhouse_ru
    Пока никак. Это в roadmap Яндекса
  • https://t.me/clickhouse_ru
    @drinkbloodnight #15100 07:42 AM, 25 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @drinkbloodnight #15101 07:43 AM, 25 May 2017
    Здравствуйте!
    Проблема с запросом в БД. При увеличении диапазона, количество записей выдает меньше
    Может это связано с типом столбца Float?
    Как можно решить данную проблему. Between тоже не помогает
  • https://t.me/clickhouse_ru
  • @a_mashukov #15103 08:03 AM, 25 May 2017
    /stat@combot
  • @bee26 #15105 08:37 AM, 25 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    Забавно)
  • https://t.me/clickhouse_ru
    @Manatskov #15107 08:44 AM, 25 May 2017
    А сколько rows processed во втором случае?
  • @iamigor #15108 08:47 AM, 25 May 2017
    таблица реплицирована? может, второй запрос уходит на реплику, куда еще недолились данные?
  • @ztlpn #15109 08:47 AM, 25 May 2017
    Столбец x входит в первичный ключ?
  • @ztlpn #15110 08:47 AM, 25 May 2017
    И какой у него тип?
  • https://t.me/clickhouse_ru
    @drinkbloodnight #15111 09:08 AM, 25 May 2017
    во стором случае processed 47.06
  • https://t.me/clickhouse_ru
    @drinkbloodnight #15112 09:09 AM, 25 May 2017
    да, столбец входит в первичный ключ
    тип x Float64
  • https://t.me/clickhouse_ru
    @drinkbloodnight #15113 09:10 AM, 25 May 2017
    таблица нереплецированная
  • @ztlpn #15114 09:18 AM, 25 May 2017
    Я как раз вчера исправил неприятный баг - сравнения с float-первичным ключом работали неверно. Правда, в случае с Float64 он не должен проявляться, только с Float32...
  • https://t.me/clickhouse_ru
    @drinkbloodnight #15115 09:40 AM, 25 May 2017
    /stat@combot
  • https://t.me/clickhouse_ru
    @GeorgiChernousov #15117 10:18 AM, 25 May 2017
    /stat@combot
  • @DigDiver #15121 11:43 AM, 25 May 2017
    Ребята, не пойму куда копать. Все работало прекрасно, а сейчас вставка работает катастрофически медленно. Через клиента 74 СЕКУНДЫ! на одну строку. Таблица в которую делаю вставку - не реплицированная, но рядом есть реплицированные.
    В логах такое:
    2017.05.25 11:47:50.085540 [ 24 ] <Error> void DB::StorageReplicatedMergeTree::queueUpdatingThread(): Code: 287, e.displayText() = DB::Exception: Unknown ReplicatedMergeTreeLogEntry format version: 4, e.what() = DB::Exception, Stack trace:

    0. clickhouse-server(StackTrace::StackTrace()+0x16) [0x1e6eab6]
    1. clickhouse-server(DB::Exception::Exception(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, int)+0x1f) [0x10be16f]
    2. clickhouse-server(DB::ReplicatedMergeTreeLogEntryData::readText(DB::ReadBuffer&)+0xd5b) [0x1fc5eab]
    3. clickhouse-server(DB::ReplicatedMergeTreeLogEntry::parse(std::__cxx11::basic_string<char, std::char_traits<char>, std::allocator<char> > const&, Stat const&)+0x152) [0x1fc61f2]
    4. clickhouse-server(DB::ReplicatedMergeTreeQueue::pullLogsToQueue(std::shared_ptr<zkutil::ZooKeeper>, std::shared_ptr<Poco::Event>)+0xe0c) [0x1fcee4c]
    5. clickhouse-server(DB::StorageReplicatedMergeTree::pullLogsToQueue(std::shared_ptr<Poco::Event>)+0x60) [0x1f32ad0]
    6. clickhouse-server(DB::StorageReplicatedMergeTree::queueUpdatingThread()+0x64) [0x1f34f74]
    7. clickhouse-server() [0x36c3daf]
    8. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76ba) [0x7fa3a205e6ba]
    9. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6d) [0x7fa3a167f82d]

    Вставка идет именно в MergeTree. В логах ошибки про ReplicatedMergeTree
  • @DigDiver #15122 11:44 AM, 25 May 2017
    Select прекрасно работает
  • https://t.me/clickhouse_ru
    @Cir0p #15123 11:45 AM, 25 May 2017
    Всем привет! Есть таблица с полями ts, name, amount. Нужно сделать запрос на сумму по amount за последнюю неделю с гранулярностью 15 минут. причем в некоторых интервалак может не быть данных и должна быть строка с 0 и временем интервала, как сделать??
  • https://t.me/clickhouse_ru
    @orantius #15124 11:56 AM, 25 May 2017
    кажется вы это спрашивали вчера. а, может не быть данных. тогда надо left join
  • Это происходит, если одну реплику обновить до свежей версии, а другую - нет. В этом случае репликация не работает и данные не мержатся. Надо обновить оставшиеся реплики - тогда данные дореплицируются и всё будет Ок.
  • @akulovigor #15126 12:02 PM, 25 May 2017
    Joined.
  • @DigDiver ↶ Reply to #15125 #15127 12:02 PM, 25 May 2017
    Так я вставляю в обычную таблицу, не реплицируемую
  • @DigDiver #15128 12:04 PM, 25 May 2017
    Версии серверов одинаковы в любом случае на обоих репликах. На втором сервере даже нет такой базы.
  • https://t.me/clickhouse_ru
    @kshvakov ↶ Reply to #15123 #15129 12:04 PM, 25 May 2017
    например так
    SELECT
    number,
    sum(v)
    FROM
    (
    SELECT number
    FROM system.numbers
    WHERE (number % 15) = 0
    LIMIT 4
    )
    ANY LEFT JOIN
    (
    SELECT
    number,
    1 AS v
    FROM system.numbers
    WHERE ((number % 15) = 0) AND (number NOT IN (15, 45))
    LIMIT 4
    ) USING (number)
    GROUP BY number
    ORDER BY number ASC
  • @DigDiver ↶ Reply to #15125 #15130 12:19 PM, 25 May 2017
    Да, на самом деле версии серверов разные оказались. Но ведь я вставлял в обычную таблицу, не реплицируемую. Единственный момент, что названия таблиц одинаковые, только базы разные.

    Server1:
    dev.table1 (not replicated)
    dev.table2 (not replicated)

    prod.table1 (replicated)
    prod.table2 (replicated)

    Server2:
    prod.table1 (replicated)
    prod.table2 (replicated)

    Вставляю на dev.table1
  • @DigDiver #15131 12:34 PM, 25 May 2017
    Может причина в этом:
    CREATE TABLE prod.table1
    ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/table1', {replica}
    ...
    CREATE TABLE dev.table1
    ENGINE = MergeTree(..

    Имена таблиц одинаковы.
  • https://t.me/clickhouse_ru
    @ivansid #15132 01:35 PM, 25 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @Linorik #15133 01:48 PM, 25 May 2017
    всем привет! у меня проблема с материализованным представлением. обновились данные в исходной таблице, используется в запросе для представления. само представление осталось без изменений. Как его заставить пересчитаться?
  • @filonov_ae #15134 01:50 PM, 25 May 2017
    А как у вас изменились данные?
  • https://t.me/clickhouse_ru
    @Linorik #15135 01:51 PM, 25 May 2017
    изменился атрибут в справочнике
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #15133 #15136 01:57 PM, 25 May 2017
    пересоздать с указанием POPULATE
  • https://t.me/clickhouse_ru
    @Linorik #15137 01:58 PM, 25 May 2017
    это очень тяжелый способ...
  • https://t.me/clickhouse_ru
    @Linorik #15138 01:58 PM, 25 May 2017
    получается, данные в мат. представлении никогда не обновляются?
  • https://t.me/clickhouse_ru
    @rheinx #15139 02:05 PM, 25 May 2017
    ну да. Они туда кладутся только.
  • https://t.me/clickhouse_ru
    @rheinx #15140 02:06 PM, 25 May 2017
    P.S.
    Если я не прав и такое уже возможно. Тагните меня плз в ответе!)
  • https://t.me/clickhouse_ru
    @Linorik #15141 02:07 PM, 25 May 2017
    печаль
  • https://t.me/clickhouse_ru
    @rheinx #15142 02:13 PM, 25 May 2017
    У мат вью основной кейс как я понял по доке это слушать таблицу с сырыми данными и агрегировать их на лету например.
  • https://t.me/clickhouse_ru
    @rheinx #15143 02:13 PM, 25 May 2017
    Для случая когда нужны и агрегаты и сырые данные
  • https://t.me/clickhouse_ru
    @Linorik #15144 02:16 PM, 25 May 2017
    но при этом "Например, при наличии GROUP BY, данные будут агрегироваться при вставке, но только в рамках одной пачки вставляемых данных."...
  • Проверьте количество реплик и их очереди с помощью SELECT * FROM system.replicas
    Посмотрите на множество реплик в ZK в ноде replicas.
    Иногда бывает так, что есть реплики, про которые забыли.
  • @milovidov_an #15146 02:30 PM, 25 May 2017
    Прочитал ниже, что уже разобрались.
  • Имена таблиц никак не зависят от пути в ZK (который для удобства может содержать в себе имя таблицы).
  • https://t.me/clickhouse_ru
    @Cir0p #15148 02:41 PM, 25 May 2017
    как сложить 2 DateTime, делаю так toDateTime('2016-06-15 23:00:00') + toDateTime(number) ошибка DB::Exception: Illegal type DateTime of second argument of function plus.
  • @milovidov_an #15149 02:42 PM, 25 May 2017
    Можно складывать DateTime с числом секунд.
  • https://t.me/clickhouse_ru
    @Cir0p #15150 02:43 PM, 25 May 2017
    спасибо!!
  • https://t.me/clickhouse_ru
    @inv2004 #15154 03:08 PM, 25 May 2017
    Вопрос: я правильно понимаю что нет ни одного поколоночного формата для вставки кроме native? (Который не рекомендуется)
  • @milovidov_an #15155 03:11 PM, 25 May 2017
    Да.
    Native уже можно рекомендовать, так как он используется некоторыми драйверами для C++, Go, .Net, Python, R. Совместимость гарантируется. Фразу про не рекомендуется можно убрать.
  • https://t.me/clickhouse_ru
    @inv2004 #15156 03:13 PM, 25 May 2017
    Спасибо.
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #15154 #15157 03:16 PM, 25 May 2017
    Поколоночная вставка? А можно поподробнее?
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #15157 #15158 03:20 PM, 25 May 2017
    Не очень уверен про КХ, но смысл в том, что данные передаются в формате: колонка1: массив1 данных; колонка2: массив2 и ТД => для вставки не надо делать flip, а по сути достаточно одного memcpy
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15159 03:21 PM, 25 May 2017
    @milovidov_an Алексей, а нету планов сделать нэтив / официальную либо для С++?
  • @iamigor #15160 03:22 PM, 25 May 2017
    по-моему к официальной либе для С++ ближе всего artpaul )
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15161 03:22 PM, 25 May 2017
    текущая вполне спарвляется с задачей, но есть несколько неприятных бажков и хочется оптимизации без выделения памяти на каждом шагу:(
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15162 03:22 PM, 25 May 2017
    А он тут есть? :)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15163 03:22 PM, 25 May 2017
    затяните его)
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #15163 #15164 03:23 PM, 25 May 2017
    Я не знаю что такое с artpaul, но мой клиент на нём тормозит жутко. 20 вставок в секунду.
  • https://t.me/clickhouse_ru
    @inv2004 #15165 03:23 PM, 25 May 2017
    Не думаю что проблема на стороне КХ
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15166 03:24 PM, 25 May 2017
    у меня вроде около 200 вставок, но есть жалобы на потерю данных :/
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15167 03:24 PM, 25 May 2017
    хз на чьей они стороне вот, вряд ли на кликхаусе
  • @milovidov_an #15168 03:24 PM, 25 May 2017
    Жалобы на клиент https://github.com/artpaul/clickhouse-cpp ?
    GitHub - artpaul/clickhouse-cpp: ClickHouse C++ client library

    ClickHouse C++ client library. Contribute to artpaul/clickhouse-cpp development by creating an account on GitHub.

  • https://t.me/clickhouse_ru
    @pavel_odintsov #15169 03:24 PM, 25 May 2017
    угумс:(
  • https://t.me/clickhouse_ru
    @inv2004 #15170 03:25 PM, 25 May 2017
    Ну, просто учитывая 6000 простым post'ом, начинает казаться что что-то с клиентом не то.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15171 03:25 PM, 25 May 2017
    cамое вот страшное вот это https://github.com/artpaul/clickhouse-cpp/issues/18
    Unexpected exception when Clickhouse daemon restarts · Issue #18 · artpaul/clickhouse-cpp

    Hello! I have the following code to push data to CH: try { clickhouse::Block block; auto packet_direction = std::make_shared(); packet_direction...

  • https://t.me/clickhouse_ru
    @pavel_odintsov #15172 03:25 PM, 25 May 2017
    приложение разносит вдребезги при перезапуске CH демона + подозрения на потери данных где-то перед вставкой
  • @milovidov_an #15173 03:26 PM, 25 May 2017
    Можно писать в личку @artmkin
    Этот драйвер разрабатывается независимо, в свободное время.
  • https://t.me/clickhouse_ru
    @inv2004 #15174 03:27 PM, 25 May 2017
    И, я может не понял, но почему там в коде делается insert values ? Хотя навеоное просто не понимаю.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15175 03:27 PM, 25 May 2017
    там нужно собирать столбцы данных
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15176 03:27 PM, 25 May 2017
    имя - aaa, bbb, ccc
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15177 03:27 PM, 25 May 2017
    возраст - 11, 22, 44
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15178 03:27 PM, 25 May 2017
    и потом инсертом вгонять в базу
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @inv2004 #15180 03:29 PM, 25 May 2017
    А это норм? Я просто для понимания. Немного смущает.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15181 03:30 PM, 25 May 2017
    не, оно работает - это железно
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #15181 #15182 03:31 PM, 25 May 2017
    Всё равно не понимаю
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15183 03:32 PM, 25 May 2017
    echo 'INSERT INTO t VALUES (1),(2),(3)' | POST 'http://localhost:8123/'
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15184 03:33 PM, 25 May 2017
    ну вот пример из документации
  • https://t.me/clickhouse_ru
    @inv2004 #15185 03:33 PM, 25 May 2017
    Так это не нативный формат, хотя и формирования строки под values я там с ходу не обнаружил.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15186 03:37 PM, 25 May 2017
    не, там дальше идет вставка блоками
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15187 03:37 PM, 25 May 2017
    // TODO check connection
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15188 03:37 PM, 25 May 2017
    не хватает только вот этой штуки :)
  • @milovidov_an #15189 03:42 PM, 25 May 2017
    Для нативного протокола, отправляется запрос INSERT без данных. Затем отдельными блоками - данные в родном формате.
  • https://t.me/clickhouse_ru
    @inv2004 #15190 03:45 PM, 25 May 2017
    Т.е. в данном примере values просто игнорируется? Тогда всё логично.
  • https://t.me/clickhouse_ru
    @rheinx #15191 03:45 PM, 25 May 2017
    Values на скрине это кусок запроса
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #15191 #15192 03:49 PM, 25 May 2017
    Понял.
  • https://t.me/clickhouse_ru
    так что посоветуете? Хранить данные в float32 и Обновить clickhouse?
  • @ztlpn #15194 03:59 PM, 25 May 2017
    Как раз со столбцом Float64 проблемы быть не должно. Вы точно уверены, что столбец типа Float64?
  • https://t.me/clickhouse_ru
    @drinkbloodnight #15195 04:06 PM, 25 May 2017
    ого..не float64, a float32
  • https://t.me/clickhouse_ru
    @drinkbloodnight #15196 04:06 PM, 25 May 2017
    Вы правы
  • https://t.me/clickhouse_ru
    @drinkbloodnight #15197 04:07 PM, 25 May 2017
    обновление clickhouse решить проблему? Или лучше float64 использовать
  • @ztlpn #15198 04:14 PM, 25 May 2017
    Фикс пока не в релизе. В качестве временного решения можно обернуть float-литералы в toFloat32: x < toFloat32(63.58). Так должно работать.
  • https://t.me/clickhouse_ru
    @drinkbloodnight #15199 04:14 PM, 25 May 2017
    спасибо!
  • @milovidov_an #15200 04:31 PM, 25 May 2017
    Выложили новую версию ClickHouse - 1.1.54236.
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @rlomonosov #15202 04:39 PM, 25 May 2017
    или теперь будут с -debug?
  • @milovidov_an #15203 04:41 PM, 25 May 2017
    Что-то не то залилось. Сейчас посмотрим.
  • https://t.me/clickhouse_ru
    @borisch #15204 06:26 PM, 25 May 2017
    2017.05.25 13:09:57.227116 [ 120 ] <Error> BaseDaemon: ########################################
    2017.05.25 13:09:57.240811 [ 120 ] <Error> BaseDaemon: (from thread 62) Received signal Segmentation fault (11).
    2017.05.25 13:09:57.240842 [ 120 ] <Error> BaseDaemon: Address: NULL pointer.
    2017.05.25 13:09:57.296645 [ 120 ] <Error> BaseDaemon: 1. /lib/x86_64-linux-gnu/libc.so.6(+0x16e5c0) [0x7f79b906e5c0]
    2017.05.25 13:09:57.301385 [ 120 ] <Error> BaseDaemon: 2. clickhouse-server(Poco::ThreadImpl::runnableEntry(void*)+0xa5) [0x34e6845]
    2017.05.25 13:09:57.301416 [ 120 ] <Error> BaseDaemon: 3. /lib/x86_64-linux-gnu/libpthread.so.0(+0x76ba) [0x7f79b99e56ba]
    2017.05.25 13:09:57.301433 [ 120 ] <Error> BaseDaemon: 4. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6d) [0x7f79b900682d]
    Уже второй раз упал инстанс вот с такой ошибкой, у кого-то было? Версия кликхаус 1.1.54187
  • https://t.me/clickhouse_ru
    @92840049 #15205 06:33 PM, 25 May 2017
    Joined.
  • Обновитесь до свежей версии. Можно собрать из master или последнего stable.
  • https://t.me/clickhouse_ru
    @borisch ↶ Reply to #15206 #15207 06:40 PM, 25 May 2017
    Спасибо, попробую
  • https://t.me/clickhouse_ru
    @Anc1ent #15208 08:26 PM, 25 May 2017
    Joined.
  • 26 May 2017 (46 messages)
  • https://t.me/clickhouse_ru
    @kshvakov ↶ Reply to #15190 #15209 06:32 AM, 26 May 2017
    Оно там не то что бы игнорируется, предположим что у вас есть 2 запроса:

    а)
    INSERT INTO table VALUES (value_a, value_b, value_c);
    б)
    INSERT INTO table (a, b) VALUES (value_a, value_c);

    на сервер отправляется запрос без данных, т.е. все что после VALUES отбрасывается и в случае "а" сервер ответит клиенту с указанием всех колонок в таблице и их типами в том порядке в котором ожидает их принять,
    в случае "б" вернет набор только колонок a и b, причем в указанном в запросе порядке
  • https://t.me/clickhouse_ru
    @kshvakov ↶ Reply to #15164 #15210 06:41 AM, 26 May 2017
    это мало, у меня есть тестовый кейс для выявления одного бага в библиотеке, там поднимается КХ в докере и к нему идут очень много мелких запросов (~1000 строк) получается где-то 300 rps, но после этого КХ до бесконечности сыплет в логи

    lib/clickhouse/data/default/t1/tmp_20380101_20380118_41976_299766_1, e.what() = File access error
    2017.05.26 09:39:56.270920 [ 3 ] <Error> void DB::BackgroundProcessingPool::threadFunction(): Poco::Exception. Code: 1000, e.code() = 39, e.displayText() = File access error: directory not empty: /var/lib/clickhouse/data/default/t1/tmp_20380101_20380118_41976_299766_1, e.what() = File access error
    2017.05.26 09:39:56.319561 [ 10 ] <Error> void DB::BackgroundProcessingPool::threadFunction(): Poco::Exception. Code: 1000, e.code() = 39, e.displayText() = File access error: directory not empty: /var/lib/clickhouse/data/default/t1/tmp_20380101_20380118_41976_299766_1, e.what() = File access error
    2017.05.26 09:39:56.338284 [ 5 ] <Error> void DB::BackgroundProcessingPool::threadFunction(): Poco::Exception. Code: 1000, e.code() = 39, e.displayText() = File access error: directory not empty: /var/lib/clickhouse/data/default/t1/tmp_20380101_20380118_41976_299766_1, e.what() = File access error
  • @DenysLamanov #15211 08:02 AM, 26 May 2017
    После обновления с версии 1.1.54231 до 1.1.54236
    select distinct стал очень долгим и падает по таймауту, а раньше не больше 1-2 секунд отрабатывал
  • @DenysLamanov #15212 08:41 AM, 26 May 2017
    Также с последней версией не работает фетчинг колонок таблицы в JDBC драйвере
  • https://t.me/clickhouse_ru
    @serebrserg #15213 08:55 AM, 26 May 2017
    Последняя версия драйвера? Если это не таймаут, и есть подозрение что дело в драйвере можно создать задачу в него с описанием ошибки.
  • @DenysLamanov #15214 08:57 AM, 26 May 2017
    Да, так и сделаю
  • @DenysLamanov #15215 09:21 AM, 26 May 2017
    В логах сервера выглядит это так:
  • @DenysLamanov #15216 09:21 AM, 26 May 2017
    2017.05.26 12:19:43.404500 [ 4 ] <Error> HTTPHandler: Code: 47, e.displayText() = DB::Exception: Unknown identifier: default_type, e.what() = DB::Exception, Stack trace:

    0. clickhouse-server(StackTrace::StackTrace()+0x1d) [0x5ee3619]
    1. clickhouse-server(DB::Exception::Exception(std::string const&, int)+0x46) [0x374eb02]
    2. clickhouse-server(DB::ExpressionAnalyzer::getRequiredColumns()+0x88) [0x5d7347c]
    3. clickhouse-server(DB::InterpreterSelectQuery::executeFetchColumns()+0x8b) [0x5d2fe03]
    4. clickhouse-server(DB::InterpreterSelectQuery::executeSingleQuery()+0x32) [0x5d2e898]
    5. clickhouse-server(DB::InterpreterSelectQuery::executeWithoutUnion()+0x109) [0x5d2e853]
    6. clickhouse-server(DB::InterpreterSelectQuery::execute()+0x38) [0x5d2e3f2]
    7. clickhouse-server() [0x5d9fd5a]
    8. clickhouse-server(DB::executeQuery(DB::ReadBuffer&, DB::WriteBuffer&, bool, DB::Context&, std::function<void (std::string const&)>)+0x258) [0x5da0cbc]
    9. clickhouse-server(DB::HTTPHandler::processQuery(Poco::Net::HTTPServerRequest&, HTMLForm&, Poco::Net::HTTPServerResponse&, DB::HTTPHandler::Output&)+0x1fbb) [0x3762bd9]
    10. clickhouse-server(DB::HTTPHandler::handleRequest(Poco::Net::HTTPServerRequest&, Poco::Net::HTTPServerResponse&)+0x1b2) [0x3763b40]
    11. clickhouse-server(Poco::Net::HTTPServerConnection::run()+0x33e) [0x67d9f4e]
    12. clickhouse-server(Poco::Net::TCPServerConnection::start()+0x24) [0x67c0e96]
    13. clickhouse-server(Poco::Net::TCPServerDispatcher::run()+0x15c) [0x67db18e]
    14. clickhouse-server(Poco::PooledThread::run()+0x85) [0x69be803]
    15. clickhouse-server() [0x698cf1d]
    16. clickhouse-server(Poco::ThreadImpl::runnableEntry(void*)+0xdc) [0x698cc0e]
    17. /lib/x86_64-linux-gnu/libpthread.so.0(+0x8184) [0x7f5b6afc2184]
    18. /lib/x86_64-linux-gnu/libc.so.6(clone+0x6d) [0x7f5b6a5ddbed]
  • @artmkin ↶ Reply to #15188 #15217 01:06 PM, 26 May 2017
    Done.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15218 01:06 PM, 26 May 2017
    @artmkin огромное спасибо!)))
  • https://t.me/clickhouse_ru
    @Mblpz0r #15219 02:46 PM, 26 May 2017
    Joined.
  • @Imawarenow #15220 02:58 PM, 26 May 2017
    Всем привет! Забавную вещь наблюдаем с clickhouse -
    1) добавили в таблицу колонку event_type типа String,
    2) Сделали insert нескольких записей в таблицу, где значение event_type = 'click' и 'view' и некоторые другие
    3) Пробуем делать простые select where event_type = 'click' - получаем пустую выборку. Тоже самое со значением view.
  • @Imawarenow #15221 03:00 PM, 26 May 2017
    при этом, если селектить по другому значению, например, render - то селес работает корректно. Возникло ощущение, что слова click и view возможно как-то зарезервированы.
  • @iamigor #15222 03:05 PM, 26 May 2017
    че-т странное. так же использую 'click' и не было такой проблемы
    а, не, у меня столбец изначально был в таблице и в PK есть
  • @Imawarenow #15223 03:07 PM, 26 May 2017
    после добавления колонки мы пересоздали полностью таблицу, к слову таблица типа MergeTree
  • @milovidov_an #15224 03:12 PM, 26 May 2017
    Странная проблема. Пока не сталкивались с таким.
    Конечно, ничего не зарезервировано. Это было бы слишком глупо.
    Есть минимальный кейс?
  • Скажите, DISTINCT чего именно делается (каких столбцов)?
    Проверим. Регрессия производительности - серьёзная проблема.
  • https://t.me/clickhouse_ru
    @146009579 #15226 03:16 PM, 26 May 2017
    Всем привет. У меня такая ситуация - есть таблица статы и обычная вьюха, тянущая данные из этой таблицы, плюс дополнительные
    вычисления. Вьюха создана запросом, вида
    CREATE VIEW V AS SELECT *, expr1 as col1, expr2 as col2 FROM Table;
    Вопрос - при добавлении колонки в таблицу вьюха ее не видит. Есть ли возможность обновлять вьюху, не пересоздавая ее
    на каждом альтере основной таблицы? Спасибо)
  • https://t.me/clickhouse_ru
    Возможно, стоило подождать пока КХ смерджит колонку со всеми кусками или зафорсить событие выполнив OPTIMIZE по таблице
  • С чего бы это требовалось. Всё должно работать.
  • Можно воспользоваться для той же задачи ALIAS столбцами:

    https://clickhouse.yandex/reference_ru.html#%D0%97%D0%BD%D0%B0%D1%87%D0%B5%D0%BD%D0%B8%D1%8F%20%D0%BF%D0%BE%20%D1%83%D0%BC%D0%BE%D0%BB%D1%87%D0%B0%D0%BD%D0%B8%D1%8E
    Документация ClickHouse | Документация ClickHouse

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • https://t.me/clickhouse_ru
    @lenasilena #15230 05:27 PM, 26 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @lenasilena #15231 05:32 PM, 26 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @rheinx #15232 06:26 PM, 26 May 2017
    Ребят, а только у меня прогресс бар обновляется только по нажатию Enter?
  • @milovidov_an #15233 07:03 PM, 26 May 2017
    Пока не встречал такого поведения.
  • https://t.me/clickhouse_ru
    @rheinx #15234 07:09 PM, 26 May 2017
    Ubuntu 16.04
    Стоковый bash.
    После ввода запроса, и нажатия Enter появляется вот такая строка:
  • https://t.me/clickhouse_ru
  • https://t.me/clickhouse_ru
    @rheinx #15236 07:09 PM, 26 May 2017
    И пока запрос не выполнится, она не меняется. В конце запроса уже вылетают результаты.
  • https://t.me/clickhouse_ru
    @rheinx #15237 07:10 PM, 26 May 2017
    если периодически нажимать Enter во время выполнения, то происходит обновление
  • https://t.me/clickhouse_ru
    @rheinx #15238 07:10 PM, 26 May 2017
    Выглядит это так
  • @milovidov_an #15239 07:16 PM, 26 May 2017
    Это может зависеть от эмулятора терминала. Какой вы используете? Из какой программы?
  • https://t.me/clickhouse_ru
    @rheinx #15240 07:22 PM, 26 May 2017
    SecureCRT - xterm
  • https://t.me/clickhouse_ru
    @rheinx #15241 07:22 PM, 26 May 2017
    Хм, сейчас попробовал штатным терминалом OS X. Там прогресс бар есть и работает.
    там TERM=xterm-256color
  • @milovidov_an #15242 07:25 PM, 26 May 2017
    Для нас требуется, чтобы терминал поддерживал такие escape-последовательности:

    #define SAVE_CURSOR_POSITION "\e7"
    #define RESTORE_CURSOR_POSITION "\e8"

    #define CLEAR_TO_END_OF_LINE "\033[K"

    Можно проверить с помощью echo -e
    Также есть похожие escape-последовательности, которые могут заменить первые две: \e[s, \e[u
  • @milovidov_an #15243 07:27 PM, 26 May 2017
    echo -e "hello \e7world \e8abcde"
    echo -e "hello \e[sworld \e[uabcde"

    Что выводит?
  • https://t.me/clickhouse_ru
    @rheinx #15244 07:28 PM, 26 May 2017
    #define SAVE_CURSOR_POSITION "\e7" - просто новая строка
    #define RESTORE_CURSOR_POSITION "\e8" - вернуло в начало строки

    #define CLEAR_TO_END_OF_LINE "\033[K" - просто новая строка
  • https://t.me/clickhouse_ru
  • @yamlcoder #15246 07:38 PM, 26 May 2017
    Родной cmd в windows научился нужным кодам
  • @yamlcoder #15247 07:38 PM, 26 May 2017
    В windows 10 creators update
  • https://t.me/clickhouse_ru
    @rheinx #15248 07:42 PM, 26 May 2017
    У меня косячина похоже в securecrt. Он видимо как то не совсем верно все интерпретирует
  • Сегодня уже есть правильные пакеты.
  • У меня тоже самое на маке, причем не важно, локальный КХ или на удаленном убунтовом сервере
  • https://t.me/clickhouse_ru
    @rheinx ↶ Reply to #15250 #15252 09:58 PM, 26 May 2017
    долбани команду env, покажи выведет. Из маковского терминала или кастомный клиент?
  • TERM_PROGRAM=Apple_Terminal
    SHELL=/bin/bash
    TERM=xterm-256color
    TMPDIR=/var/folders/71/tl84c0000gp/T/
    Apple_PubSub_Socket_Render=/private/tmp/com.apple.launchd.HpxLqk/Render
    TERM_PROGRAM_VERSION=388
    TERM_SESSION_ID=
    USER=user
    SSH_AUTH_SOCK=/private/tmp/com.apple.launchd.iW5qU/Listeners
    __CF_USER_TEXT_ENCODING=0x1F6:0x0:0x0
    PATH=/usr/local/bin:/usr/bin:/bin:/usr/sbin:/sbin
    PWD=/Users/user
    XPC_FLAGS=0x0
    XPC_SERVICE_NAME=0
    SHLVL=1
    HOME=/Users/user
    LOGNAME=user
    LC_CTYPE=UTF-8
    SECURITYSESSIONID=
    _=/usr/bin/env
  • https://t.me/clickhouse_ru
    @rheinx #15254 11:25 PM, 26 May 2017
    Странно. У меня тож самое
  • 27 May 2017 (17 messages)
  • @konstantin_mitjurin #15255 04:46 AM, 27 May 2017
    Добрый день! Скажите, а кто-нибудь использовал КХ+Logstash?
  • https://t.me/clickhouse_ru
    @ataranov #15256 06:11 AM, 27 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15257 07:36 AM, 27 May 2017
    Всем привет!
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15258 07:36 AM, 27 May 2017
    sudo service clickhouse-server status
    /etc/init.d/clickhouse-server: line 274: running_processes: command not found
    /etc/init.d/clickhouse-server: line 274: [: -eq: unary operator expected
    clickhouse-server: process unexpectedly terminated
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15259 07:36 AM, 27 May 2017
    Ubuntu 14.04, версия: 1.1.54236
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15260 07:37 AM, 27 May 2017
    start/stop/restart работают, status отсох :)
  • https://t.me/clickhouse_ru
    @proller #15261 12:05 PM, 27 May 2017
    похоже на старую версию инит скрипта
  • https://t.me/clickhouse_ru
    @proller #15262 12:05 PM, 27 May 2017
    сейчас там на строке 274 совсем другое, и эту проблему уже решали
  • https://t.me/clickhouse_ru
    @proller #15263 12:10 PM, 27 May 2017
    можно попробовать взять содержимое https://raw.githubusercontent.com/yandex/ClickHouse/master/debian/clickhouse-server.init и положить в /etc/init.d/clickhouse-server:
  • https://t.me/clickhouse_ru
    @Felixoid ↶ Reply to #15258 #15264 12:17 PM, 27 May 2017
    Можно сделать
    sudo apt-get --reinstall -o Dpkg::Options::="--force-confask" install $package
    Должно помочь
  • @ekimovartem #15265 01:23 PM, 27 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @AndreevDm #15266 05:40 PM, 27 May 2017
    Привет. А кто может по табиксу подсказать? Можно ли его использовать в прокси режиме. Что бы доступ до кх был только с сервера с табиксом, но не у клиентов?
  • https://t.me/clickhouse_ru
    @feriat #15267 07:06 PM, 27 May 2017
    Вроде разработка tabix server только в прогрессе, ещё нет
  • @iamigor #15268 07:08 PM, 27 May 2017
    можно поднять тот же nginx на 8123 порту и смотреть referer'а. если ui.tabix.io - значит из табикса. это, конечно, можно обойти без особых проблем, но мало ли
  • @garikanet #15269 08:08 PM, 27 May 2017
    Пока только nginx в прокси на ch, в настройках tabix указывая http://ip:порт/
  • @garikanet #15270 08:09 PM, 27 May 2017
    табикс дополнительные проверки не делает
  • @sr_maks1 #15271 08:17 PM, 27 May 2017
    Можно поднять табих в докере. В нгинкс прописать на локалхост : порт и аксесс лист
  • 28 May 2017 (66 messages)
  • @sr_maks1 #15274 06:57 AM, 28 May 2017
    Ребят выкиньте флудера
  • https://t.me/clickhouse_ru
    @the_real_jkee #15275 07:11 AM, 28 May 2017
    done
  • @f1yegor #15276 07:12 AM, 28 May 2017
    вы не хотите на темную сторону?)
  • @sr_maks1 #15277 07:25 AM, 28 May 2017
    Мы уже и так там:)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15278 07:53 AM, 28 May 2017
    @Felixoid спасибо, помогло :)
  • https://t.me/clickhouse_ru
    @maxlapshin #15279 09:58 AM, 28 May 2017
    а можно ли в внешнем словаре в layout совместить complex_key_hashed и cache ?
  • https://t.me/clickhouse_ru
    @maxlapshin #15280 09:59 AM, 28 May 2017
    мне бы распарсить useragent и запихать в кеш
  • https://t.me/clickhouse_ru
    @maxlapshin #15281 09:59 AM, 28 May 2017
    но ключом будет строка
  • @36499356 #15282 10:24 AM, 28 May 2017
    кликхауз подойдет для стоковых данных?
  • https://t.me/clickhouse_ru
    @maxlapshin #15283 10:40 AM, 28 May 2017
    Неоптимально но подойдет. Когда я писал свою хранилку для стоковых данных то получилось сделать ряд хороших оптимизаций
  • https://t.me/clickhouse_ru
    @maxlapshin #15284 10:40 AM, 28 May 2017
    В кх их нет, но он сам по себе крут
  • https://t.me/clickhouse_ru
    complex_key_cache
  • @36499356 #15286 10:46 AM, 28 May 2017
    а есть бд, которая для этого лучше подходит?
  • https://t.me/clickhouse_ru
    @uMagistr ↶ Reply to #15286 #15287 10:48 AM, 28 May 2017
    а требования есть ? я вот о opentsdb для такой задачи думаю что хорошо подойдет
  • @36499356 #15288 10:50 AM, 28 May 2017
    никаких особо требовний, надо парсить кучу стоковых данных (ордера, курсы, глубина) и потом анализировать/кормить нейронке
  • https://t.me/clickhouse_ru
    @maxlapshin #15289 11:06 AM, 28 May 2017
    Opentsdb о другом
  • https://t.me/clickhouse_ru
    @maxlapshin #15290 11:06 AM, 28 May 2017
    Вообще
  • https://t.me/clickhouse_ru
    @maxlapshin #15291 11:07 AM, 28 May 2017
    Короче. Лить стакан в кх можно
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15292 11:09 AM, 28 May 2017
    а что такое стоковые данные, простите, за невежливость?
  • https://t.me/clickhouse_ru
    @umaxfun #15293 11:14 AM, 28 May 2017
    Биржевые
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15294 11:15 AM, 28 May 2017
    а
  • https://t.me/clickhouse_ru
    @maxlapshin #15295 11:16 AM, 28 May 2017
    Стакан это строка из, скажем,40 чисел: отсортированные по цене предложения на покупку и продажу с ценой и обьемом
  • https://t.me/clickhouse_ru
    @maxlapshin #15296 11:19 AM, 28 May 2017
    Они характеризуются сильными колебаниями в середине и неподвижностью по краям,так что межстрочная компрессия даст потрясающий результат
  • @36499356 #15297 11:28 AM, 28 May 2017
    спасибо, пошел лить! 👍
  • https://t.me/clickhouse_ru
    имейте ввиду:
    - низкие требования к консистентности данных;
  • https://t.me/clickhouse_ru
    это неотъемлемое свойство данных с биржи. Совершенно нормально получить мусор, скачки на 3 порядка, старые данные, повторы и прочий мусор. Если московская биржа ещё более менее что-то приличное отдает, то американские вместе дают жуткий шум
  • https://t.me/clickhouse_ru
    @Pepelazz #15300 01:11 PM, 28 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @rheinx #15301 01:16 PM, 28 May 2017
    А есть ли в ClickHouse возможность хранить в поле массивы Key => Value ?
  • @iamigor #15302 01:18 PM, 28 May 2017
    Документация ClickHouse | Документация ClickHouse

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • https://t.me/clickhouse_ru
    @maxlapshin #15303 01:25 PM, 28 May 2017
    можете подсказать по словарям которые через executable
  • https://t.me/clickhouse_ru
    @maxlapshin #15304 01:25 PM, 28 May 2017
    указал как CSVWithNames и получаю такую ругань:
  • https://t.me/clickhouse_ru
    @maxlapshin #15305 01:25 PM, 28 May 2017
    Code: 27, e.displayText() = DB::Exception: Cannot parse input: expected , before: useragent","os_family","os_type","os_version_major","os_manufacturer","browser_family","browser_type","browser_version_major","browser_manufacturer"",,,0,,,,0,\n:
    Could not print diagnostic info because two last rows aren't in buffer (rare case)
    : (at row 1), e.what() = DB::Exception
  • https://t.me/clickhouse_ru
    @maxlapshin #15306 01:25 PM, 28 May 2017
    при этом:
  • https://t.me/clickhouse_ru
    @maxlapshin #15307 01:25 PM, 28 May 2017
    # echo "Lavf53.32.100" | /opt/retroview/scripts/useragents.erl dict
    "useragent","os.family","os.type","os.version_major","os.manufacturer","browser.family","browser.type","browser.version_major","browser.manufacturer"
    "Lavf53.32.100",,,0,,"mag","stb",0,"infomir"
  • https://t.me/clickhouse_ru
    @maxlapshin #15308 01:38 PM, 28 May 2017
    что должен отдавать скрипт?
  • @36499356 ↶ Reply to #15299 #15309 02:47 PM, 28 May 2017
    то есть можно не запарываться и ставить кликхауз, ибо биржи сами с данными бывает лажают?
  • https://t.me/clickhouse_ru
    @rheinx #15310 03:08 PM, 28 May 2017
    ИМХО, если планируется данные с бирж потом чистить, то ClickHouse для этого кейса не оч подходит.
  • https://t.me/clickhouse_ru
    Чистить надо сразу
  • https://t.me/clickhouse_ru
    @maxlapshin #15312 03:19 PM, 28 May 2017
    На входе
  • https://t.me/clickhouse_ru
    @rheinx #15313 03:19 PM, 28 May 2017
    Не всегда это возможно
  • @vladislavadv #15314 04:15 PM, 28 May 2017
    Всем привет.
    Подскажите, пожалуйста, возможно ли как-то посмотреть % сжатия данных по определенным столбцам в таблицы?
  • @vladislavadv #15315 04:16 PM, 28 May 2017
    Что-то такое ощущение, что колонки типа array практически не жмутся
  • @36499356 #15316 04:19 PM, 28 May 2017
    я подумал и выбрал influxdb если что🤔
  • https://t.me/clickhouse_ru
    @inv2004 ↶ Reply to #15286 #15317 04:22 PM, 28 May 2017
    Конечно. Есть база заточенная под стоки - кдб. Собственно во многих банках именно она.
  • Нашел в system.columns, в сжатом виде в 10 раз меньше, оригинального. Но все-равно, мне кажется мало. Массивы строковые, и значения практически одинаковые(на 200м эвентов(массивов), всего 1-2к уник строковых значений, с длинной 20-25 симоволов, в массиве в среднем 40 элементов)

    Помню в конфигах были какие-то настройки по сжатию. Они могут помочь? или не значительно?
  • https://t.me/clickhouse_ru
    Для поиграть сгодится
  • https://t.me/clickhouse_ru
    @maxlapshin #15320 05:15 PM, 28 May 2017
    Вот незадача: cache executable наплодил зомбей, cache http жалуется на connection refused
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #15316 #15321 06:00 PM, 28 May 2017
    Сочувствую
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #15316 #15322 06:01 PM, 28 May 2017
    Это оффтоп, но инфлакс не работает с мало мальски большими базами и запросами. Можешь погуглить какие в среднем проблемы с ним у людей сейчас.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15323 06:02 PM, 28 May 2017
    двадцать мегабайт =)
  • https://t.me/clickhouse_ru
    @megachel #15324 06:03 PM, 28 May 2017
    сорок мегабайт, может даже больше... может даже шестьдесят
  • https://t.me/clickhouse_ru
    @maxlapshin #15325 06:08 PM, 28 May 2017
    может кто-нибудь посоветовать, как отладить ситуацию с тем, что кликхаус говорит, что не может подключиться при исполнении запроса, в котором участвует доступ к http dictionary?
  • @iamigor #15326 06:10 PM, 28 May 2017
    tcpdump/wireshark?
  • я думал он уже умер давно))) база теряющая данные...
  • https://t.me/clickhouse_ru
    ой. а есть прувы ? если не против давайте на эту тему в @metrics_ru тут не релевантно.
  • https://t.me/clickhouse_ru
    @freeseacher #15329 06:22 PM, 28 May 2017
    @the_real_jkee 700! поздравляю.
  • https://t.me/clickhouse_ru
    @the_real_jkee #15330 06:23 PM, 28 May 2017
    Ага, уже 700. Всех поздравляю!
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15331 06:27 PM, 28 May 2017
    Ура!)
  • https://t.me/clickhouse_ru
    помог strace. Я прописал 127.0.0.1, а коннект идет к [::1]
  • https://t.me/clickhouse_ru
    @orantius ↶ Reply to #15301 #15333 07:58 PM, 28 May 2017
    можно хранить Nested с массивами Keys и Values, для некоторых задач подходит.
  • https://t.me/clickhouse_ru
    @volodymyr_lyshenko #15334 08:19 PM, 28 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @diliuskh #15335 09:47 PM, 28 May 2017
    Joined.
  • @f1yegor ↶ Reply to #15314 #15336 10:07 PM, 28 May 2017
    select * from system.columns limit 4
  • @f1yegor #15337 10:07 PM, 28 May 2017
    data_compressed_bytes─┬─data_uncompressed_bytes
  • @f1yegor #15339 10:12 PM, 28 May 2017
    select table, name, data_uncompressed_bytes * 1.0 / data_compressed_bytes AS c from system.columns where data_compressed_bytes > 0 order by c desc ;
  • @ikuibida #15340 11:40 PM, 28 May 2017
    Joined.
  • 29 May 2017 (76 messages)
  • https://t.me/clickhouse_ru
    @maxlapshin #15341 06:11 AM, 29 May 2017
    так, насчёт словарей такие замечания:
  • https://t.me/clickhouse_ru
    @maxlapshin #15342 06:12 AM, 29 May 2017
    1) во-первых в http источник КХ засовывает несколько раз один и тот же ключ
  • https://t.me/clickhouse_ru
    @maxlapshin #15343 06:12 AM, 29 May 2017
    2) во-вторых какая-то проблема с превращением 127.0.0.1 в [::1]
  • https://t.me/clickhouse_ru
    @maxlapshin #15344 06:13 AM, 29 May 2017
    3) следующее — не очень понятно какой был рассчетный паттерн использования executable: запускается на очень маленькое количество ключей и часто дохнет. Хорошо бы поднимать процесс и долго его кормить
  • @iamigor ↶ Reply to #14293 #15345 06:15 AM, 29 May 2017
    ^ насчет ipv4/ipv6 недавно обсуждали

    может с этим как-то связано
  • https://t.me/clickhouse_ru
    @maxlapshin #15346 06:17 AM, 29 May 2017
    у меня софтина не слушает на ipv6
  • @iamigor #15347 06:18 AM, 29 May 2017
    а в конфиге КХ какой интерфейс на прослушивание указан?
  • @iamigor #15348 06:18 AM, 29 May 2017
    если [::1], попробуйте на 127.0.0.1 поменять
  • @garikanet #15349 06:24 AM, 29 May 2017
    обновил tabix, fix'ы и новые фичи

    https://tabix.io/doc/Changelog/#2017-05-29
    Changelog - Tabix

    Tabix DB Gui

  • https://t.me/clickhouse_ru
    <listen_host>::</listen_host>
  • @iamigor ↶ Reply to #15350 #15351 06:25 AM, 29 May 2017
    ага, поможет, если 127.0.0.1 будет?
  • https://t.me/clickhouse_ru
    @maxlapshin #15352 06:25 AM, 29 May 2017
    я пока сделал по-другому: я дал не 127.0.0.1, а внешний хостнейм, который разрезолвился в ipv4
  • https://t.me/clickhouse_ru
    @maxlapshin #15353 07:40 AM, 29 May 2017
    а с dictionary и кешем ещё вопрос в том, что вот как бы так сделать, что бы кеш можно было сделать персистентным, т.е. хорошо бы что бы был файл, а если ключа нет в файле, тогда идти за executable к http серверу
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15354 10:48 AM, 29 May 2017
    Received exception from server:
    Code: 359. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: Table fastnetmon.host_metrics was not dropped.
    Reason:
    1. Table size (57.24 GB) is greater than max_table_size_to_drop (50.00 GB)
    2. File '/var/lib/clickhouse/flags/force_drop_table' intedned to force DROP doesn't exist
    How to fix this:
    1. Either increase (or set to zero) max_table_size_to_drop in server config and restart ClickHouse
    2. Either create forcing file /var/lib/clickhouse/flags/force_drop_table and make sure that ClickHouse has write permission for it.
    Example:
    sudo touch '/var/lib/clickhouse/flags/force_drop_table' && sudo chmod 666 '/var/lib/clickhouse/flags/force_drop_table'.

    0 rows in set. Elapsed: 0.222 sec.
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15355 10:49 AM, 29 May 2017
    занятная защита :)
  • @iamigor #15356 10:50 AM, 29 May 2017
    тоже недавно наткнулся, офигел
  • @iamigor #15357 10:50 AM, 29 May 2017
    ну, можно по партишенам удалять
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15358 10:50 AM, 29 May 2017
    не, мне нравится)
  • https://t.me/clickhouse_ru
    @pavel_odintsov #15359 10:50 AM, 29 May 2017
    типа данные менее 50 гигов не шибко ценны, а вот больше - не смей, мужик!)
  • @tsionyx #15360 10:54 AM, 29 May 2017
    Joined.
  • @tsionyx #15361 10:58 AM, 29 May 2017
    Привет всем! Можно ли в CH получить табличные данные на лету? Что-то вроде такого запроса в postgres:

    => select * from (values (1,2),(3,4)) v(a,b);
    a | b
    ---+---
    1 | 2
    3 | 4
    (2 rows)
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #15362 11:11 AM, 29 May 2017
    Добрый день скажите плиз можно ли какие-то метрики с кликхаус снять для графита? может есть какая-то тулза ?
  • https://t.me/clickhouse_ru
    @zukrain #15363 11:12 AM, 29 May 2017
    ClickHouse/graphouse

    Graphouse allows you to use ClickHouse as a Graphite storage. - ClickHouse/graphouse

  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #15363 #15364 11:13 AM, 29 May 2017
    эт про другое )
  • https://t.me/clickhouse_ru
    @Civiloid #15365 11:13 AM, 29 May 2017
    если именно с кликхауса - в настройках можно указать )
  • https://t.me/clickhouse_ru
    привет)) ты понял о чем я спрашиваю)
  • https://t.me/clickhouse_ru
    как-то снять нагрузку количество запросов и т.д. чтобы в графане мониторить. где в кликхаус искать?
  • https://t.me/clickhouse_ru
    @Civiloid #15368 11:14 AM, 29 May 2017
    там не так много метрик
  • https://t.me/clickhouse_ru
    и все же. какие именно? где рыть? может я в доке упустил про это
  • https://t.me/clickhouse_ru
    Server/config.xml ?
  • https://t.me/clickhouse_ru
    @Civiloid #15371 11:16 AM, 29 May 2017
    <graphite> в clickhouse-server/config.xml
  • https://t.me/clickhouse_ru
    @Civiloid #15372 11:16 AM, 29 May 2017
    там можно указать root_path (префикс метрик в графите)
  • https://t.me/clickhouse_ru
    @Civiloid #15373 11:17 AM, 29 May 2017
    host/port, interval
  • https://t.me/clickhouse_ru
    @Civiloid #15374 11:17 AM, 29 May 2017
    и 3 параметра
  • https://t.me/clickhouse_ru
    @Civiloid #15375 11:17 AM, 29 May 2017
    @maksim_melnichuk оно дампит в общем system.metrics, system.events и system.asynchronous_metrics
  • https://t.me/clickhouse_ru
    вижу. там две секции
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #15377 11:19 AM, 29 May 2017
    мне только одну расскоментить и порт поменять
  • https://t.me/clickhouse_ru
    @Civiloid #15378 11:19 AM, 29 May 2017
    Ага
  • https://t.me/clickhouse_ru
    спасиб
  • https://t.me/clickhouse_ru
    @yuryemelyanov #15380 11:27 AM, 29 May 2017
    Привет!

    Как на КХ лучше написать запрос, который на большой таблице фактов посчитает по выбранному измерению сумму последних (по времени) N фактов?
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #15381 11:33 AM, 29 May 2017
    @Civiloid смотрю в графане все статы по нулям, хотя запросы идут. там две секции метрики и события
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #15381 #15382 11:34 AM, 29 May 2017
    я пока не дошел до мониторинга кликхауса ) пока просто играюсь
  • https://t.me/clickhouse_ru
    там только статы есть по AsynchronousMetrics
  • https://t.me/clickhouse_ru
    @Civiloid #15384 11:35 AM, 29 May 2017
    у меня есть все статы )
  • https://t.me/clickhouse_ru
    @Civiloid #15385 11:35 AM, 29 May 2017
    они правда с дырами иногда )
  • https://t.me/clickhouse_ru
    @Civiloid #15386 11:36 AM, 29 May 2017
    то есть у меня за 8 часов есть 3-4 пропущенные точки
  • https://t.me/clickhouse_ru
    а где можно глянуть описание по этим ключам стат? а то не совсем понятно что есть что
  • https://t.me/clickhouse_ru
    @Civiloid #15388 11:37 AM, 29 May 2017
    во всех метриках одинаковые )
  • https://t.me/clickhouse_ru
    @Civiloid ↶ Reply to #15387 #15389 11:37 AM, 29 May 2017
    я боюсь в комментах в коде )
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #15390 11:37 AM, 29 May 2017
    @Yandex дайте доку по метрикам )
  • https://t.me/clickhouse_ru
    @maksim_melnichuk #15391 11:38 AM, 29 May 2017
    MarkCacheBytes MarkCacheFiles вот по этим только есть. какой-то кеш
  • https://t.me/clickhouse_ru
    @salim_murtazaliev #15393 01:19 PM, 29 May 2017
    Всем привет! Может кто подсказать, как скормить в словарик данные через АПИ проекта, отдавая JSON?
  • https://t.me/clickhouse_ru
    @salim_murtazaliev #15394 01:19 PM, 29 May 2017
    или там только tsv?
  • https://t.me/clickhouse_ru
    @maxlapshin #15395 01:20 PM, 29 May 2017
    Документация ClickHouse | Документация ClickHouse

    ClickHouse is a fast open-source column-oriented database management system that allows generating analytical data reports in real-time using SQL queries

  • https://t.me/clickhouse_ru
    @maxlapshin #15396 01:20 PM, 29 May 2017
    CSV, TSV и куча другого
  • https://t.me/clickhouse_ru
    @salim_murtazaliev #15397 01:25 PM, 29 May 2017
    А вниешние словари то соберутся если указать "кучу всего"?
  • @kochetovnicolai #15398 01:39 PM, 29 May 2017
    должны собраться
  • @serlex777 #15399 02:30 PM, 29 May 2017
    Всем привет!
    Подскажите, есть какое либо ограничение на вложенные запросы по объему данных? Будет ли КХ использовать диск, если не будет хватать памяти? Есть ли на вложенные запросы ограничения?
  • @sr_maks1 #15400 02:40 PM, 29 May 2017
    ))) ограничения задаются лимитах для пользователя в users.xml Любой запрос должен умещаться либо в этот лимит либо ОП. Можно почитать подробнее про select в офф доке а также про опции externa by
  • @vmalov #15401 04:08 PM, 29 May 2017
    Joined.
  • https://t.me/clickhouse_ru
    @rheinx #15402 07:18 PM, 29 May 2017
    Добрый вечер. Для range_hashed словаря, start_date или end_date может быть null?
  • https://t.me/clickhouse_ru
    @rheinx #15403 07:23 PM, 29 May 2017
    "Если граница диапазона является NULL или является некорректной датой (1900-01-01, 2039-01-01), то диапазон следует считать открытым. Диапазон может быть открытым с обеих сторон."

    Нашел.
  • https://t.me/clickhouse_ru
    @SLASH_CyberPunk #15404 07:28 PM, 29 May 2017
    С 2039 по 1900... Интересно...
  • https://t.me/clickhouse_ru
    @rheinx #15405 07:37 PM, 29 May 2017
    А может ли у range_hashed словаря не быть атрибутов?
  • https://t.me/clickhouse_ru
    @rheinx #15406 07:37 PM, 29 May 2017
    У меня просто id и start/end
  • @kochetovnicolai #15407 07:41 PM, 29 May 2017
    для такого словаря, кажется, должна работать dictHas