Параметры конфигурации: PHP: Где могут быть установлены параметры конфигурации
Файл конфигурации — это… Что такое Файл конфигурации?
- Файл конфигурации
Файл конфигурации или конфигурационный файл используется для хранения настроек компьютерных программ, в том числе и операционных систем.
Как правило, конфигурационные файлы имеют текстовый формат и могут быть прочитаны и отредактированы пользователем программы.
Наиболее широко файлы конфигурации в качестве средства настройки используются в ОС семейства Unix: FreeBSD, GNU/Linux и др.
Известные форматы
В ОС GNU/Linux в качестве файлов конфигурации системы зачастую используются сценарии (скрипты) для командной оболочки.
Категория:
- Файлы конфигурации
Wikimedia Foundation.
2010.
- Премия Ректенвальда
- Шарыгин, Игорь Фёдорович
Смотреть что такое «Файл конфигурации» в других словарях:
Файл конфигурации рабочего стола — Ярлык в Windows NT Ярлык (англ. shortcut), элемент рабочего стола (англ. desktop entry) или файл конфигурации рабочего стола (англ. desktop configuration file)), в компьютерной терминологии файл, служащий указателем на объект (например, файл,… … Википедия
Файл (компьютер) — Файл (англ. file папка, скоросшиватель) концепция в вычислительной технике: сущность, позволяющая получить доступ к какому либо ресурсу вычислительной системы и обладающая рядом признаков: фиксированное имя (последовательность символов, число или … Википедия
Файл — У этого термина существуют и другие значения, см. Файл (значения). Файл (англ. file) блок информации на внешнем запоминающем устройстве компьютера, имеющий определённое логическое представление (начиная от простой последовательности… … Википедия
Файл инициализации — Редактирование файла INI с помощью англ. Initialization file) это файл конфигурации, который содержит данные настроек для Microsoft Windows, Windows NT и некоторых приложений. Появились с самых первых версий Windows. В версии Windows 1.01 это… … Википедия
Конфигурационный файл — Файл конфигурации или конфигурационный файл используется для хранения настроек компьютерных программ, в том числе и операционных систем. Как правило, конфигурационные файлы имеют текстовый формат и могут быть прочитаны и отредактированы… … Википедия
Компьютерный файл — Файл (англ. file папка, скоросшиватель) концепция в вычислительной технике: сущность, позволяющая получить доступ к какому либо ресурсу вычислительной системы и обладающая рядом признаков: фиксированное имя (последовательность символов, число или … Википедия
язык описания конфигурации системы — Данный язык обеспечивает возможность обмена информацией о конфигурации устройств в стандартизованном формате между программным обеспечением различных фирм производителей. [Новости Электротехники №3(75). Релейная защита. МЭК 61850] Все параметры… … Справочник технического переводчика
Файлы — Файл (англ. file папка, скоросшиватель) концепция в вычислительной технике: сущность, позволяющая получить доступ к какому либо ресурсу вычислительной системы и обладающая рядом признаков: фиксированное имя (последовательность символов, число или … Википедия
Конфиг — Файл конфигурации или конфигурационный файл используется для хранения настроек компьютерных программ, в том числе и операционных систем. Как правило, конфигурационные файлы имеют текстовый формат и могут быть прочитаны и отредактированы… … Википедия
1С:FAQ:Обновление — А что мне будет за использование пиратской 1С ки? Релиз конфигурации и платформы Где взять: обновления конфигураций и форм отчетности Обновление релиза (версии) … Бухгалтерская энциклопедия
Настройка и использование msconfig
- Содержание статьи
- Способы запуска msconfig
- Первый способ (Подходит для Windows Vista, 7, 8, 10) — Самый быстрый
- Второй способ (Windows XP, Vista, 7, 8, 10)
- Третий способ (Windows XP, Vista, 7, 8, 10)
- Четвертый способ (Windows XP, Vista, 7, 8, 10)
- Программа msconfig
- Основные сценарии использования msconfig
- Комментарии к статье ( 1 шт )
- Добавить комментарий
- Способы запуска msconfig
Msconfig — утилита, предназначенная для выявления причин некорректной работы системы, программ, выбора варианта загрузки Windows, а также для диагностики системы. Многие начинающие пользователи ПК часто по-ошибке ищут где можно скачать msconfig, т.к. не знают, что данная утилита установлена по-умолчанию в Windows, поэтому ее не нужно скачивать, а необходимо лишь запустить. Ниже будут перечислены несколько способов, как можно это сделать на различных версиях Windows.
Способы запуска msconfig
Первый способ (Подходит для Windows Vista, 7, 8, 10) — Самый быстрый
Если у вас Windows Vista, 7, 8, 8.1 или 10, то просто нажмите на меню “Пуск” и внизу в окошке введите msconfig
. Нажмите Enter.
Второй способ (Windows XP, Vista, 7, 8, 10)
Заходим в меню Пуск — Все программы — Стандартные. Выбираем «Командная строка» (Command Prompt).
Появится черное окошко командной строки, в нем вписываем msconfig
и жмем Enter.
Третий способ (Windows XP, Vista, 7, 8, 10)
В том же меню Пуск нажимаем «Выполнить» (Run).
Появится окошко, в котором будет предложено ввести нужную команду. Здесь вписываем msconfig
, и как обычно нажимаем Enter.
Четвертый способ (Windows XP, Vista, 7, 8, 10)
Заходим в проводнике по адресу C:\Windows\System32. В этой огромной папке куча всяких файлов. Пролистываем в середину списка и находим msconfig.exe.
Разницы, каким из предложенных способов пользоваться нет. Самым оптимальным является первый, как самый быстрый.
Программа msconfig
Интерфейс программы msconfig состоит из небольшого окошка, и пяти вкладок — Общие, Загрузка, Службы, Автозагрузка, Сервис.
Рассмотрим подробно каждую из вкладок, и о практическом применении всех этих настроек.
Общие
- Обычный запуск он и есть обычный запуск. Загружаются все драйвера, службы системы, а также программы из меню “Автозагрузка”.
- Диагностический запуск – это режим, при котором загружаются только основные драйвера и системные службы.
- В случае выборочного запуска вы можете более тонко сконфигурировать загрузку системы. “Загружать системные службы” – загружается стандартный набор системных служб. Честно говоря не пробовал выключать эту галочку. “Загружать элементы автозагрузки” – загружаются все программы, которые сконфигурированы на вкладке “Автозагрузка”. “Использовать оригинальную конфигурацию загрузки” – этим параметром по умолчанию невозможно управлять. Активируется он в случае, если вы изменили что-то во вкладке “Загрузка” (тогда можно будет вернуться к дефолтным настройкам).
Загрузка
Вверху окна написано название ОС или список предустановленных систем. Если систем установлено несколько, то нажимаем на название системы и нажимаем кнопку «Использовать по умолчанию». В моем случае эта опция недоступна, т.к. система установлена одна. Таймаут – параметр, в котором указывается, как долго при загрузке будет высвечиваться список установленных ОС. Если вы включите «без GUI», то при загрузке ОС логотипа системы не будет (высветится только черное окно).
Нажимаем “Дополнительные параметры” и открывается еще одно окно.
Активировав галочку напротив «Число процессоров», можно указать число процессоров (фактически, процессорных ядер), которое будет видеть система. Если на вашем компьютере двухъядерный процессор, то максимальное возможное число будет 2, которое стоит по умолчанию. Таким же способом можно ограничить количество доступной оперативной памяти. При этом в диспетчере задач процессорных ядер и оперативной памяти будет видно столько, сколько вы укажите здесь.
Параметры «Блокировка PCI» и «Отладка» лучше не трогать. Они предназначены для разработчиков драйверов и устройств, и для обычного пользователя могут привести только к нестабильной работе системы.
Службы
Здесь можно увидеть список всех служб, загружаемых в обычном режиме. Снимайте галочки для отключения служб или наоборот ставьте для включения, если, конечно, знаете, что включаете/отключаете. Список служб огромный, из которых львиную долю занимают предустановленные службы Windows. Поэтому в левом нижнем углу можно включить галочку «Не отображать службы Майкрософт«. При этом список сократится до минимума и будет выглядеть так:
Как можно заметить, тут остались службы сторонних программ. Теперь анализируем, что нам нужно, а что нет — и при желании отключаем.
Автозагрузка
Обычно люди устанавливают приложения, потом перестают ими пользоваться, а удалять забывают или не хотят (а вдруг пригодится). Особенно это касается программ, которые используются по следующему сценарию: поставил программу – выполнил с ее помощью какую-то задачу – забыл про программу. А в итоге при каждой загрузке системы эти приложения так же загружаются, что существенно увеличивает время загрузки ОС и снижает отзывчивость системы на слабых компьютерах.
Сервис
Здесь расположен весь список программ, выполняющих схожие с msconfig функции. Т.е. администрирование, настройку, диагностику системы и т.п. Многое вам может быть знакомо. Поэкспериментируйт
Настройка конфигурации сети — Мегаобучалка
Несмотря на то, что мастер настройки сети автоматически создает все необходимые сетевые параметры, свойства сетевых протоколов могут не соответствовать текущей конфигурации локальной сети. Иными словами, мастер не всегда на «отлично» справляется со своей работой. Если, открыв папку Сетевое окружение, вы не увидите в ней значков подключенных к локальной сети компьютеров, придется изменять настройки сетевых протоколов вручную. Для этого понадобятся следующие параметры:
IP-адрес вашего компьютера;
маска подсети;
IP-адрес основного шлюза доступа к Интернету.
Откройте папку Сетевое окружение и щелкните на ссылке «отобразить» сетевые подключения в левой панели сетевые задачи. Откроется окно сетевые подключения, содержащее значки всех настроенных в системе сетевых подключений. Дважды щелкните на значке соответствующего сетевого подключения, чтобы открыть окно с данными о состоянии подключения локальной сети.
В частности, в окне указана длительность активного сетевого соединения, скорость соединения, активность (сколько байтов информации отправлено и принято). Все параметры сетевого соединения представлены в этом же окне на вкладке Поддержка. Там можно узнать тип IP-адреса (введен вручную или назначен DHCP), IP-адрес компьютера, маску подсети и IP-адрес основного шлюза.
Кроме того, если щелкнуть на кнопке Подробности, можно получить дополнительные сведения, такие как физический MAC-адрес сетевого адаптера. В окне также расположена кнопка «исправить», позволяющая исправить некоторые проблемы, связанные с подключением.
Щелкните на кнопке «подробности», чтобы открыть это окно.
Щелкните на кнопке «исправить», чтобы исправить проблемы с сетевым подключением.
Чтобы внести какие-либо изменения в конфигурацию локальной сети, щелкните на кнопке Свойства. Откроется окно со свойствами сетевого подключения.
Чтобы изменить аппаратные настройки сетевой платы, щелкните на кнопке «настроить». Кроме того, установите флажок при подключении вывести значок в области уведомлений, чтобы при подключении к локальной сети в области уведомления Windows XP отображался специальный значок. Если все параметры были указаны верно, после перезагрузки локальная сеть будет активизирована, и компьютеры смогут обмениваться данными.
Настройка локальной сети для Windows 7
Для того чтобы создать простейшую сеть нужно соединить компьютеры кабелем с так называемой «зеркальной» разводкой кабеля типа «кроссовер».
Обжать «кроссовер» — значит, что провода с одной стороны кабеля надо обжать в обратной последовательности.
Прежде всего, нужно проверить настройку имени рабочей группы, поскольку компьютеры с ОС Windows 7 могут компьютеры только в одном случае, если названия рабочей группы у этих компьютеров одинаковые. Поэтому если названия рабочей группы разные следует поменять на одном из двух компьютеров название группы. В Windows 7 по умолчанию название рабочей группы WORKGROUP.
Домашняя группа — это новая функция в Windows 7, с помощью которой любой пользователь может настроить общий доступ к файлам или принтеру в домашней сети за 30 секунд. Я не преувеличиваю.
Достаточно щелкнуть мышью, чтобы получить доступ к файлам и принтерам на других компьютерах домашней сети. Домашняя группа — это название соответствующей функции по организации домашней сети. Например, если мне требуется напечатать какой-либо документ, идти к другому компьютеру, к которому подключен принтер, теперь не нужно, а доступ к файлам, хранящимся на домашнем компьютере, я могу получить и с моего ноутбука.
В процессе настройки или присоединения к домашней группе я могу выбрать библиотеки и принтеры, которые требуется использовать совместно, или с легкостью изменить их в будущем. Домашнюю группу можно защитить паролем, который также можно изменить в любое время. Для настройки домашней группы необходимо иметь домашнюю сеть.
Домашняя группа представляет собой среду для обеспечения общего доступа к файлам и принтерам в существующей сети. Сначала в центре управления сетями и общим доступом на панели управления проверяем, что для текущего сетевого размещения установлен параметр «Домашняя сеть». Это необходимо потому, что домашняя группа работает только в домашних сетях. Чтобы изменить сетевое размещение, просто щелкните текущий параметр и выберите любой другой. (Однако не следует устанавливать параметр «Домашняя сеть» для публичной сети. Обычно она не является безопасной.).
Чтобы создать домашнюю группу, открываем элемент «Домашняя группа» на панели управления и нажимаем кнопку Создать домашнюю группу. Затем добавляем каждый из имеющихся дома компьютеров в домашнюю группу (это нужно сделать отдельно на каждом компьютере). Для этого открываем элемент «Домашняя группа» на панели управления и выбираем Присоединиться. (Элемент «Домашняя группа» также можно открыть, щелкнув Выбор домашней группы и параметров общего доступа в центре управления сетями и общим доступом.)
Drill.exec.allow_loopback_address_binding | ЛОЖЬ | Добавлен в Drill 1.14. Позволяет Drillbit связываться с адресом обратной связи в распределенном режиме. Включите только в целях тестирования. |
Drill.exec.default_ Contemporary_workspace | dfs.tmp | Доступно с Drill 1. 10. Устанавливает рабочее пространство для временных таблиц. Рабочая область должна быть доступной для записи, файловой и указывать на уже существующее расположение.Для этой опции требуется следующий формат:. <Рабочая область |
Drill.exec.http.jetty.server.acceptors | 1 | Доступно с Drill 1.13. Параметр соединителя HTTP, который ограничивает количество рабочих потоков, выделенных для приема подключений. Ограничение количества приемников также ограничивает количество необходимых потоков. |
Drill.exec.http.jetty.server.selectors | 2 | Доступно с Drill1.13. Параметр соединителя HTTP, который ограничивает количество рабочих потоков, выделенных для отправки и получения данных.Ограничение количества селекторов также ограничивает необходимое количество потоков. |
Drill.exec.memory.operator.output_batch_size | 16777216 (16 МБ) | Доступно с Drill 1.13. Ограничивает объем памяти, выделяемой операторами Flatten, Merge Join и External Sort для исходящих пакетов. |
Drill.exec.storage.implicit.filename.column.label | имя файла | Доступно с Drill 1.10. Устанавливает неявное имя столбца для столбца имени файла. |
Drill.exec.storage.implicit.filepath.column.label | путь к файлу | Доступно с Drill 1.10. Устанавливает неявное имя столбца для столбца пути к файлу. |
Drill.exec.storage.implicit.fqn.column.label | fqn | Доступно с Drill 1.10. Устанавливает неявное имя столбца для столбца fqn. |
Drill.exec.storage.implicit.suffix.column.label | суффикс | Доступно с Упражнения 1.10. Устанавливает неявное имя столбца для столбца суффикса. |
Drill.exec.functions.cast_empty_string_to_null | ЛОЖЬ | В текстовом файле обрабатывать пустые поля как значения NULL вместо пустой строки. |
Drill.exe.spill.fs | «файл: ///» | Введено в Drill 1. 11. Файловая система по умолчанию на локальном компьютере, в которую операторы Sort, Hash Aggregate и Hash Join передают данные. |
дрель.exec.spill.directories | [«/ тмп / дрель / разлив»] | Введено в Drill 1.11. Список каталогов, в которые операторы Sort, Hash Aggregate и Hash Join передают данные. Список должен быть массивом с каталогами, разделенными запятой, например [«/ fs1 / Drill / spill», «/ fs2 / Drill / spill», «/ fs3 / Drill / spill»]. |
Drill.exec.storage.file.partition.column.label | дирек | Метка столбца для уровней каталога в результатах запросов файлов в каталоге.Принимает строковый ввод. |
exec.enable_union_type | ЛОЖЬ | Включить поддержку типа профсоюзов Avro. |
exec.errors.verbose | ЛОЖЬ | Включает подробный вывод исполняемых сообщений об ошибках |
exec.java_compiler | ПО УМОЛЧАНИЮ | Переключение между режимами DEFAULT, JDK и JANINO для текущего сеанса. По умолчанию использует Janino для сгенерированного исходного кода меньше, чем exec.java_compiler_janino_maxsize; в противном случае переключается на компилятор JDK. |
exec.java_compiler_debug | ИСТИНА | Переключает вывод сообщений об ошибках компилятора на уровне отладки в коде, созданном во время выполнения. |
exec.java.compiler.exp_in_method_size | 50 | Введено в Drill 1.8. Для запросов со сложными или множественными выражениями в логике запроса этот параметр ограничивает количество выражений, разрешенных в каждом методе, чтобы Drill не генерировал код, превышающий лимит Java в 64 КБ.Если метод приближается к пределу в 64 КБ, компилятор Java возвращает сообщение о том, что код слишком велик для компиляции. Если запросы возвращают такое сообщение, уменьшите значение этой опции на уровне сеанса. Значение по умолчанию для этого параметра — 50. Значение — это количество выражений, разрешенных в методе. Выражения добавляются в метод до тех пор, пока они не достигнут предела Java 64K, когда создается новый внутренний метод и вызывается из существующего метода. Примечание. Эта логика реализована не для всех операторов.Если в запросе используются операторы, для которых не реализована логика, уменьшение значения этого параметра может не устранить ошибку. Установка этого параметра на системном уровне влияет на все запросы и может снизить производительность запросов. |
exec.java_compiler_janino_maxsize | 262144 | См. Комментарий к параметру exec.java_compiler. Принимает вводы типа LONG. |
exec.max_hash_table_size | 1073741824 | Конечный размер в сегментах для хеш-таблиц.Диапазон: 0 — 1073741824. |
exec.min_hash_table_size | 65536 | Начальный размер в корзинах для хеш-таблиц. Увеличивайте в соответствии с доступной памятью для повышения производительности. Увеличивается для очень больших агрегатов или объединений, когда у вас есть большой объем памяти для использования Drill. Диапазон: 0 — 1073741824. |
exec. queue.enable | ЛОЖЬ | Изменяет состояние очередей запросов. False разрешает неограниченное количество одновременных запросов. |
exec.queue.large | 10 | Задает количество больших запросов, которые могут выполняться одновременно в кластере. Диапазон: 0-1000 |
exec.queue.small | 100 | Задает количество небольших запросов, которые могут выполняться одновременно в кластере. Диапазон: 0-1001 |
exec.queue.threshold | 30000000 | Устанавливает порог стоимости, который зависит от сложности запросов в очереди, для определения того, является ли запрос большим или маленьким.Сложные запросы имеют более высокие пороги. Диапазон: 0-9223372036854775807 |
exec.queue.timeout_millis | 300000 | Указывает, как долго запрос может ждать в очереди, прежде чем он завершится ошибкой. Диапазон: 0-9223372036854775807 |
Exec. schedule.assignment.old | ЛОЖЬ | Используется для предотвращения сбоя запроса, когда второстепенному фрагменту не назначены рабочие единицы, особенно когда количество файлов намного больше, чем количество конечных фрагментов. |
exec.storage.enable_new_text_reader | ИСТИНА | Включает программу чтения текста, соответствующую стандарту RFC 4180 для файлов text / csv. |
new_view_default_permissions | 700 | Устанавливает права просмотра с использованием восьмеричного кода в традициях Unix. |
planner.add_producer_consumer | ЛОЖЬ | Увеличить предварительную выборку данных с диска. Отключить чтение из памяти. |
planner.affinity_factor | 1,2 | Фактор, по которому узел с привязкой к конечной точке получает преимущество при создании назначения. Принимает входные данные типа DOUBLE. |
planner.broadcast_factor | 1 | Эвристический параметр, влияющий на широковещательную рассылку записей как часть запроса. |
planner.broadcast_threshold | 10000000 | Максимальное количество записей, разрешенных для широковещательной передачи в рамках запроса.После миллиона записей Drill перетасовывает данные, а не выполняет широковещательную рассылку на одну сторону соединения. Диапазон: 0-2147483647 |
planner.disable_exchanges | ЛОЖЬ | Переключает состояние хеширования на случайный обмен. |
planner.enable_broadcast_join | ИСТИНА | Изменяет состояние агрегирования и операторов соединения. Широковещательное соединение может использоваться для хэш-соединения, соединения слиянием и соединения с вложенным циклом. Используется для присоединения большой (фактологической) таблицы к относительно меньшим (размерным) таблицам.Не отключать. |
planner.enable_constant_folding | ИСТИНА | Если одна сторона условия фильтрации является постоянным выражением, сворачивание констант вычисляет выражение на этапе планирования и заменяет выражение постоянным значением. Например, Drill может переписать WHERE age + 5 <42 как WHERE age <37. |
planner.enable_decimal_data_type | ЛОЖЬ | False отключает тип данных DECIMAL, включая приведение к DECIMAL и чтение типов DECIMAL из Parquet и Hive. |
planner.enable_demux_exchange | ЛОЖЬ | Переключает состояние хеширования на демулитеплексированный обмен. |
planner.enable_hash_single_key | ИСТИНА | Каждый ключ хеширования связан с одним значением. |
planner.enable_hashagg | ИСТИНА | Включить агрегирование хэшей; в противном случае Drill выполняет агрегирование на основе сортировки. Записывает на диск. Рекомендуется включить. |
планировщик.enable_hashjoin | ИСТИНА | Включите хэш-соединение, требующее памяти. Drill предполагает, что у запроса будет достаточно памяти для выполнения, и пытается использовать максимально быстрые операции для выполнения запланированных внутренних, левых, правых или полных внешних соединений с использованием хеш-таблицы. На диск не записывает. Отключение хеш-соединения позволяет Drill управлять произвольно большими данными с небольшим объемом памяти. |
planner.enable_hashjoin_swap | ИСТИНА | Позволяет учитывать несколько последовательностей порядка соединения на этапе планирования.Может отрицательно повлиять на производительность некоторых запросов из-за неточности расчетного количества строк, особенно после фильтрации, объединения или агрегирования. |
planner.enable_hep_join_opt | Включает эвристический планировщик для объединений. | |
planner.enable_mergejoin | ИСТИНА | Операция на основе сортировки. Соединение слиянием используется для внутреннего соединения, левого и правого внешних соединений. Входные данные для объединения слиянием должны быть отсортированы. Он читает отсортированные входные потоки с обеих сторон и находит совпадающие строки.Записывает на диск. |
planner.enable_multiphase_agg | ИСТИНА | Каждый второстепенный фрагмент выполняет локальную агрегацию на этапе 1, распределяет на основе хеширования с использованием ключей GROUP-BY, частично агрегированные результаты другим фрагментам, и все фрагменты выполняют полную агрегацию с использованием этих данных. |
planner.enable_mux_exchange | ИСТИНА | Переключает состояние хеширования на мультиплексированный обмен. |
планировщик.enable_nestedloopjoin | ИСТИНА | Операция на основе сортировки. Записывает на диск. |
planner.enable_nljoin_for_scalar_only | ИСТИНА | Поддерживает планирование соединения с вложенным циклом, где правый вход является скалярным, что позволяет использовать НЕ-ВХОД, неравенство, декартово и некоррелированное планирование EXISTS. |
planner.enable_streamagg | ИСТИНА | Операция на основе сортировки. Записывает на диск. |
планировщик.filter.max_selectivity_estimate_factor | 1 | Доступно с Drill 1.8. Устанавливает оценку максимальной избирательности фильтра. Селективность может варьироваться от 0 до 1. Подробнее см. Planner.filter.min_selectivity_estimate_factor. |
planner.filter.min_selectivity_estimate_factor | 0 | вводит в Drill 1.8. Устанавливает оценку минимальной избирательности фильтра для увеличения распараллеливания основного фрагмента, выполняющего соединение.Эта опция полезна для глубоко вложенных запросов со сложными предикатами и служит обходным путем, когда статистика недостаточна или недоступна. Селективность может варьироваться от 0 до 1. Значение этой опции ограничивает предполагаемую ВЫБОРНОСТЬ. Расчетное значение ROWCOUNT получается путем умножения расчетного значения SELECTIVITY на расчетное значение ROWCOUNT восходящего оператора. Приблизительный ROWCOUNT отображается при использовании команды EXPLAIN PLAN INCLUDING ALL ATTRIBUTES FOR. Эта опция не контролирует оценочное ROWCOUNT нижестоящих операторов (post FILTER).Однако оценочные значения ROWCOUNT могут измениться, поскольку ROWCOUNT оператора зависят от их последующих операторов. Оператор FILTER полагается на ввод своего непосредственного предшествующего оператора, например SCAN, AGGREGATE. Если в плане присутствуют два фильтра, каждый фильтр может иметь различную оценку ROWCOUNT на основе оценки ROWCOUNT непосредственного вышестоящего оператора. |
planner.identifier_max_length | 1024 | Требуется минимальная длина, поскольку имена параметров сами по себе являются идентификаторами. |
planner.join.hash_join_swap_margin_factor | 10 | Число последовательностей заказов на соединение, которые следует учитывать на этапе планирования. |
planner.join.row_count_estimate_factor | 1 | Фактор для корректировки расчетного количества строк при рассмотрении нескольких последовательностей порядка соединения на этапе планирования. |
planner.memory.average_field_width | 8 | Используется для оценки требований к памяти. |
planner.memory.enable_memory_estimation | ЛОЖЬ | Переключает состояние оценки памяти и перепланирования запроса. При включении Drill консервативно оценивает требования к памяти и обычно исключает этих операторов из плана, что отрицательно влияет на производительность. |
planner.memory.hash_agg_table_factor | 1,1 | Эвристическое значение, влияющее на размер хэш-таблицы агрегирования. |
planner.memory.hash_join_table_factor | 1,1 | Эвристическое значение, влияющее на размер хэш-таблицы агрегирования. |
planner.memory.max_query_memory_per_node | 2147483648 байт | Задает максимальный объем прямой памяти, выделяемой операторам Sort и Hash Aggregate во время каждого запроса на узле. Эта память разделена между операторами. Если план запроса содержит несколько операторов Sort и / или Hash Aggregate, память делится между ними.Предел по умолчанию следует увеличить для запросов к большим наборам данных. |
planner.memory.non_blocking_operators_memory | 64 | Дополнительная память запросов на узел для неблокирующих операторов. Эта опция в настоящее время используется только для оценки памяти. Диапазон: 0-2048 МБ |
planner.memory_limit | 268435456 байт | Определяет максимальный объем прямой памяти, выделяемой запросу для планирования. Когда несколько запросов выполняются одновременно, каждому запросу выделяется объем памяти, установленный этим параметром.Увеличьте значение этого параметра и повторно запустите запрос, если сокращение раздела не удалось из-за нехватки памяти. |
planner.memory.percent_per_query | 0,05 | Устанавливает объем памяти в процентах от общей прямой памяти. |
planner.nestedloopjoin_factor | 100 | Эвристическое значение для влияния на соединение вложенного цикла. |
planner.partitioner_sender_max_threads | 8 | Верхний предел потоков для исходящей очереди. |
planner.partitioner_sender_set_threads | –1 | Перезаписывает количество потоков, используемых для отправки пакетов записей. Установите -1, чтобы отключить. Обычно не меняется. |
planner.partitioner_sender_threads_factor | 2 | Эвристический параметр, влияющий на конечное количество потоков. Чем выше значение, тем меньше потоков. |
planner.producer_consumer_queue_size | 10 | Объем данных для предварительной выборки с диска в пакетах записей вне диапазона выполнения запроса.Чем больше размер очереди, тем больший объем памяти потребляет очередь и выполнение запроса в целом. |
planner.slice_target | 100000 | Число записей, обработанных внутри фрагмента до того, как Drill распараллелит операции. |
planner.width.max_per_node | 70% от общего количества процессоров на узле | Максимальное количество потоков, которые могут выполняться параллельно для запроса на узле.Срез — это отдельная нить. Это число указывает максимальное количество срезов на запрос для основного фрагмента запроса на узле. |
planner.width.max_per_query | 1000 | То же, что и max для узла, но применяется к запросу, выполняемому всем кластером. Например, это значение может быть количеством активных Drillbits или большим числом, чтобы результаты возвращались быстрее. |
security.admin.user_groups | н / д | Поддерживается с 1.4. Разделенный запятыми список групп администраторов для обеспечения безопасности веб-интерфейса. |
security.admin.users | Поддерживается с версии 1.4. Список имен пользователей, разделенных запятыми, которым вы хотите предоставить права администратора. | |
store.format | паркет | Формат вывода для данных, записанных в таблицы с помощью команды CREATE TABLE AS (CTAS). Допустимые значения: parquet, json, psv, csv или tsv. |
магазин. Улей.parquet.optimize_scan_with_native_reader | ЛОЖЬ | По умолчанию Drill читает таблицы Hive с помощью встроенного средства чтения Hive. Когда вы включаете этот параметр, Drill читает таблицы Hive с помощью собственных средств чтения Drill, что обеспечивает более быстрое чтение и принудительное использование памяти напрямую. Начиная с Drill 1.14, этот параметр также позволяет Drill применять оптимизацию фильтра. Раньше это была опция store.hive.optimize_scan_with_native_readers, которую в упражнении 1 планируется исключить.15. |
store.hive.conf.properties | «» | Добавлен в Drill 1.14. Позволяет указать свойства Hive на уровне сеанса с помощью команды SET. Дополнительную информацию см. В разделе Подключаемый модуль хранилища Hive. |
store.json.all_text_mode | ЛОЖЬ | Drill считывает все данные из файлов JSON как VARCHAR. Предотвращает ошибки изменения схемы. |
store.json.extended_types | ЛОЖЬ | Включает специальные структуры JSON, которые Drill сериализует для хранения большего количества информации о типах, чем четыре основных типа JSON. |
store.json.read_numbers_as_double | ЛОЖЬ | Считывает числа с десятичной точкой или без нее как ДВОЙНЫЕ. Предотвращает ошибки изменения схемы. |
store.mongo.all_text_mode | ЛОЖЬ | Аналогично store.json.all_text_mode для MongoDB. |
store.mongo.read_numbers_as_double | ЛОЖЬ | Аналогично store.json.read_numbers_as_double. |
магазин.паркет. размер блока | 536870912 | Устанавливает размер группы строк Parquet на количество байтов, меньшее или равное размеру блока MFS, HDFS или файловой системы. |
store.parquet.compress | нет | Тип сжатия для хранения паркетной продукции. Допустимые значения: snappy, gzip, none |
store.parquet.enable_dictionary_encoding | ЛОЖЬ | Для внутреннего использования. Не меняй. |
магазин.parquet.dictionary.page-size | 1048576 | |
store.parquet.reader.int96_as_timestamp | ЛОЖЬ | Позволяет Drill неявно интерпретировать тип данных временной метки INT96 в файлах Parquet. |
store.parquet.use_new_reader | ЛОЖЬ | Не поддерживается в этом выпуске. |
store.partition.hash_distribute | ЛОЖЬ | Использует алгоритм хеширования для распределения данных по ключам разделов в операции разделения CTAS.Альфа вариант — для экспериментального использования на данном этапе. Не использовать в производственных системах. |
store.text.estimated_row_size_bytes | 100 | Оценка размера строки в текстовом файле с разделителями, например csv. Чем ближе к актуальному, тем лучше план запроса. Используется для всех файлов csv в системе / сеансе, где установлено значение. Влияет на решение о планировании присоединения к трансляции. |
окно. Включить | ИСТИНА | Включение или отключение оконных функций в упражнении 1.1 и позже. |
Список вариантов конфигурации
Параметры конфигурации — список параметров конфигурации
По умолчанию PHP_CodeSniffer будет использовать стандарт кодирования PEAR , если стандарт не указан в командной строке. Стандарт по умолчанию можно изменить, установив параметр конфигурации default_standard
.
Установка стандарта по умолчанию в качестве стандарта кодирования Squiz
$ phpcs --config-set default_standard Squiz
По умолчанию PHP_CodeSniffer будет использовать полный формат отчета , если формат не указан в командной строке.Вы можете изменить формат отчета по умолчанию, установив параметр конфигурации report_format
.
Установка формата отчета по умолчанию как сводного отчета
$ phpcs --config-set report_format summary
По умолчанию PHP_CodeSniffer будет показывать как ошибки, так и предупреждения для вашего кода. Вы можете скрыть предупреждения для одного запуска скрипта с помощью аргумента командной строки -n
, но вы также можете включить это по умолчанию, если хотите.Чтобы скрыть предупреждения по умолчанию, установите для параметра конфигурации show_warnings
значение 0
.
Скрытие предупреждений по умолчанию
$ phpcs --config-set show_warnings 0
Когда предупреждения по умолчанию скрыты, вы можете использовать аргумент командной строки
-w
, чтобы показать их для одного запуска скрипта.
По умолчанию PHP_CodeSniffer будет работать незаметно и только в конце распечатать отчет об ошибках и предупреждениях.Если вы хотите знать, что происходит, вы можете включить вывод прогресса, но вы также можете включить это по умолчанию, если хотите. Чтобы показывать прогресс по умолчанию, установите для параметра конфигурации show_progress
значение 1
.
Отображение прогресса по умолчанию
$ phpcs --config-set show_progress 1
По умолчанию PHP_CodeSniffer отображает все ошибки и предупреждения с уровнем серьезности 5
или выше.Вы можете изменить эти настройки для одного запуска скрипта, используя аргументы командной строки --severity
, --error-severity
и --warning-severity
, но вы также можете изменить настройки по умолчанию, если хотите.
Изменение уровня серьезности по умолчанию для отображения всех ошибок и предупреждений
$ phpcs --config-set severity 1
Изменение уровней серьезности по умолчанию для отображения всех ошибок, но только некоторых предупреждений
$ phpcs --config-set error_severity 1
$ phpcs --config-set warning_severity 8
Установка серьезности предупреждений на
0
аналогична использованию аргумента командной строки-n
.Если вы установите серьезность ошибок на0
PHP_CodeSniffer не будет показывать никаких ошибок, что может быть полезно, если вы просто хотите показать предупреждения.
По умолчанию PHP_CodeSniffer распечатывает все экранные отчеты шириной 80 символов. Пути к файлам будут усечены, если они не соответствуют этому пределу, а сообщения об ошибках будут переноситься на несколько строк. Вы можете увеличить ширину отчета, чтобы отображать более длинные пути к файлам и ограничить перенос сообщений об ошибках, используя аргумент командной строки -report-width
, но вы также можете изменить ширину отчета по умолчанию, установив параметр конфигурации report_width
.
Установка ширины отчета по умолчанию 120 символов
$ phpcs --config-set report_width 120
По умолчанию PHP_CodeSniffer будет обрабатывать все исходные файлы, как если бы они использовали кодировку ISO-8859-1. Это может вызвать проблемы с двойным кодированием при создании отчетов XML в кодировке UTF-8. Чтобы помочь PHP_CodeSniffer правильно кодировать отчеты, вы можете указать кодировку ваших исходных файлов с помощью аргумента командной строки --encoding
, но вы также можете изменить кодировку по умолчанию, установив параметр конфигурации encoding
.
Установка кодировки по умолчанию UTF-8
$ phpcs --config-set кодировка utf-8
По умолчанию PHP_CodeSniffer не преобразует табуляции в пробелы в отмеченных файлах. Указание ширины табуляции заставит PHP_CodeSniffer заменить табуляцию пробелами. Вы можете заставить PHP_CodeSniffer заменять табуляцию пробелами по умолчанию, установив параметр конфигурации tab_width
.
Установка ширины табуляции по умолчанию на 4 пробела
$ phpcs --config-set tab_width 4
Когда ширина табуляции установлена по умолчанию, замену табуляции пробелами можно отключить для одного запуска скрипта, установив ширину табуляции равной нулю.
Отключение замены табуляции пробелами
$ phpcs --tab-width = 0 / путь / к / код
Стандарт кодирования Squiz включает снифф, который проверяет каждый файл JavaScript с помощью JSLint, программы JavaScript, которая ищет проблемы в программах JavaScript. Используйте опцию конфигурации jslint_path
, чтобы указать снифферу JSLint, где найти инструмент.
Установка пути к JSLint
$ phpcs --config-set jslint_path /path/to/jslint.js
Поскольку JSLint — это просто код JavaScript, вам также необходимо установить Rhino, чтобы иметь возможность выполнять его. Используйте параметр конфигурации rhino_path
, чтобы указать снифферу JSLint, где найти инструмент.
Установка пути к Rhino
$ phpcs --config-set rhino_path / путь / к / rhino
Стандарт кодирования Squiz включает снифф, который будет проверять каждый файл JavaScript с помощью JavaScript Lint, инструмента, который проверяет весь исходный код JavaScript на предмет распространенных ошибок без фактического запуска сценария или открытия веб-страницы.Используйте опцию конфигурации jsl_path
, чтобы указать сниффу JavaScript Lint, где найти инструмент.
Установка пути к JavaScript Lint
$ phpcs --config-set jsl_path / путь / к / jsl
Стандарт кодирования Squiz включает сниффер, который будет проверять каждый файл с помощью Google Closure Linter, средства проверки стиля JavaScript с открытым исходным кодом от Google. Используйте параметр конфигурации gjslint_path
, чтобы указать поисковику Google Closure Linter, где найти инструмент.
Установка пути к Google Closure Linter
$ phpcs --config-set gjslint_path / путь / к / gjslint
Стандарт кодирования Zend включает сниффер, который проверяет каждый файл с помощью Zend Code Analyzer, инструмента, поставляемого с Zend Studio. Используйте опцию конфигурации zend_ca_path
, чтобы указать анализатору кода Zend, где найти инструмент.
Установка пути к анализатору кода Zend
$ phpcs --config-set zend_ca_path / path / to / ZendCodeAnalyzer
Руководство по настройке — Folding @ home
Щелкните значок FAHClient на панели задач.Выберите Advanced Control (также известный как FAHControl) (см. Рисунок 1).
Рисунок 1
Отображается интерфейс FAHControl (см. Рисунок 2).
Рисунок 2
Нажмите кнопку «Настроить» (на панели инструментов).
Окно «Настройка» и вкладка «Идентификация» отображаются по умолчанию (см. Рисунок 3).
Рисунок 3
Выберите вкладку «Эксперт».
На вкладке «Эксперт» показаны разделы «Дополнительные параметры клиента» и «Дополнительные основные параметры» (см. Рисунок 4).
Рис. 4
В зависимости от параметра, который необходимо изменить, нажмите кнопку «Добавить» в разделе «Дополнительные параметры клиента» или в разделе «Дополнительные основные параметры».
Примечание. Параметры V7 обычно задаются в разделе «Дополнительные параметры клиента», тогда как более старые параметры fahcore устанавливаются в разделе «Дополнительные параметры ядра».
Отображается окно «Редактировать параметры» или «Редактировать основные параметры» (см. Рисунок 5).
Дополнительные параметры клиента <- Рисунок 5 -> Дополнительные параметры ядра
Для параметра клиента введите имя параметра (флаг или параметр), который нужно изменить. Введите значение для этой опции. Показан пример Name: client-type со значением Value: advanced (см. Рисунок 6 слева).
Для дополнительной опции ядра, которые представляют собой более старые флаги, переданные непосредственно в FAHCore, вводится только этот точный флаг. Имя параметра для ввода отсутствует, только значение флага. Показан пример -np 2 (с тире) (см. Рисунок 6 справа). Не все параметры Extra Core поддерживаются всеми типами FAHCore, и неподдерживаемые флаги будут игнорироваться.
Дополнительные параметры клиента <- Рисунок 6 -> Дополнительные параметры ядра
Повторите, если необходимо, чтобы добавить дополнительные клиентские или основные параметры.Или нажмите «ОК», а затем «Сохранить», чтобы сохранить изменения и вернуться на главный экран FAHControl.
Примечание. В зависимости от измененного параметра, FAHClient (область уведомлений), возможно, потребуется закрыть (выйти) и снова открыть, чтобы изменение параметра вступило в силу. Кроме того, изменение настройки может не вступить в силу до следующего рабочего блока.
Конфигурация
— документация Raspberry Pi
На этой странице описывается консольное приложение raspi-config. Если вы используете рабочий стол Raspberry Pi, вы можете использовать графическое приложение настройки Raspberry Pi из меню настроек, чтобы настроить Raspberry Pi.
raspi-config
— это инструмент настройки Raspberry Pi, изначально написанный Алексом Брэдбери. Он нацелен на ОС Raspberry Pi.
Использование
Вам будет показан raspi-config
при первой загрузке в ОС Raspberry Pi. Чтобы после этого открыть инструмент настройки, просто запустите из командной строки следующее:
судо распи-конфиг
sudo
требуется, потому что вы будете изменять файлы, которыми вы не владеете как пользователь pi
.
Вы должны увидеть синий экран с параметрами в сером поле в центре, например:
Доступны следующие варианты:
┌─────────────────── Инструмент настройки программного обеспечения Raspberry Pi (raspi-config) ├───────────────── ────┐
│ │
│ 1 Изменить пароль пользователя Изменить пароль для текущего пользователя │
│ 2 Параметры сети Настройка параметров сети │
│ 3 варианта загрузки Настройка параметров запуска │
│ 4 варианта локализации Установите язык и региональные настройки в соответствии с вашим местоположением │
│ 5 Параметры интерфейса Настройка подключений к периферийным устройствам │
│ 6 Разгон Настройте разгон для вашего Pi │
│ 7 Дополнительные параметры Настройка дополнительных параметров │
│ 8 Обновление Обновите этот инструмент до последней версии │
│ 9 О raspi-config Информация об этом инструменте настройки │
│ │
│ │
│ │
│ <Выбрать> <Готово> │
│ │
└──────────────────────────────────────────────────── ───────────────────────────────────────────────────
Перемещение по меню
Используйте клавиши со стрелками вверх,
и вниз,
, чтобы перемещать выделенный элемент между доступными параметрами.Нажатие кнопки со стрелкой вправо
выскочит из меню параметров и переместит вас к кнопкам <Выбрать>
и <Готово>
. Нажав влево
, вы вернетесь к параметрам. Кроме того, вы можете использовать клавишу Tab
для переключения между ними.
Обратите внимание, что в длинных списках значений параметров (например, в списке городов с часовыми поясами) вы также можете ввести букву, чтобы перейти к этому разделу списка. Например, при вводе L
вы перейдете в Лиссабон, всего в двух вариантах от Лондона, чтобы избавить вас от прокрутки до конца алфавита.
Что делает raspi-config
Вообще говоря, raspi-config
предоставляет функциональные возможности для внесения наиболее распространенных изменений конфигурации. Это может привести к автоматическому редактированию файла /boot/config.txt,
и различных стандартных файлов конфигурации Linux. Для вступления в силу некоторых параметров требуется перезагрузка. Если вы изменили какой-либо из них, raspi-config
спросит, хотите ли вы перезагрузиться сейчас, когда вы нажмете кнопку <Готово>
.
Опции меню
Изменить пароль пользователя
Пользователь по умолчанию в ОС Raspberry Pi — pi
с паролем raspberry
.Вы можете изменить это здесь. Прочтите о других пользователях.
Параметры сети
В этом подменю вы можете установить имя хоста, SSID беспроводной локальной сети и общий ключ, а также включить / отключить предсказуемые имена сетевых интерфейсов.
Имя хоста
Установите видимое имя для этого Pi в сети.
Параметры загрузки
Отсюда вы можете изменить то, что происходит, когда ваш Pi загружается. Используйте эту опцию, чтобы изменить настройки загрузки на командную строку или рабочий стол. Вы можете выбрать, будет ли загрузка ждать доступности сети и будет ли отображаться экран-заставка Plymouth при загрузке.
Развертывание и настройка
Развертывание
Есть два хорошо поддерживаемых режима развертывания для sparklyr :
- Локальный — Работа на локальном компьютере, как правило, с меньшими / выборочными наборами данных
- Кластер — Работа непосредственно внутри или вместе с кластером Spark (автономный, YARN, Mesos и т. Д.)
Локальное развертывание
Локальный режим — отличный способ изучить Spark и поэкспериментировать с ним. Локальный режим также обеспечивает удобную среду разработки для анализа, отчетов и приложений, которые вы планируете в конечном итоге развернуть в многоузловом кластере Spark.
Для работы в локальном режиме необходимо сначала установить версию Spark для локального использования. Вы можете сделать это с помощью функции spark_install, например:
sparklyr :: spark_install (version = "2.1.0")
Чтобы подключиться к локальному экземпляру Spark, вы передаете «local» в качестве значения главного узла Spark в spark_connect:
Библиотека (sparklyr)
sc <- spark_connect (master = "local")
Для локального сценария разработки см. Раздел «Конфигурация» ниже, чтобы узнать, как обеспечить бесперебойную работу одного и того же кода как в среде разработки, так и в рабочей среде.
Развертывание кластера
Распространенной стратегией развертывания является отправка вашего приложения со шлюза, который физически совмещен с вашими рабочими машинами (например, главный узел в автономном кластере EC2). В этой настройке подходит режим клиента. В клиентском режиме драйвер запускается непосредственно в процессе искровой отправки, который действует как клиент для кластера. Вход и выход приложения привязаны к консоли. Таким образом, этот режим особенно подходит для приложений, использующих REPL (например,грамм. Искра оболочки). Для получения дополнительной информации см. Подача заявок.
Чтобы использовать spaklyr с кластером Spark, вы должны разместить сеанс R на машине, которая находится либо непосредственно на одном из узлов кластера, либо близко к кластеру (для обеспечения производительности сети). В случае, когда R не работает непосредственно в кластере, вы также должны убедиться, что машина имеет версию Spark и конфигурацию , идентичную конфигурации узлов кластера.
Самый простой способ запустить R в кластере или рядом с ним - это либо удаленный сеанс SSH, либо через RStudio Server.
В режиме кластера вы используете версию Spark, уже развернутую на узле кластера. Эта версия находится через переменную среды SPARK_HOME
, поэтому вы должны быть уверены, что эта переменная правильно определена на вашем сервере, прежде чем пытаться установить соединение. Обычно это делается в файле конфигурации Renviron.site. Например:
SPARK_HOME = / opt / spark / spark-2.0.0-bin-hadoop2.6
Для подключения передайте адрес главного узла в spark_connect, например:
Библиотека (sparklyr)
sc <- spark_connect (master = "spark: // local: 7077")
Для кластера Hadoop YARN вы можете подключиться с помощью мастера YARN, например:
Библиотека (sparklyr)
sc <- spark_connect (master = "пряжа-клиент")
Если вы работаете на EC2 с использованием сценариев развертывания Spark EC2, вы можете прочитать мастер из / root / spark-ec2 / cluster-url
, например:
Библиотека (sparklyr)
cluster_url <- system ('cat / root / spark-ec2 / cluster-url', intern = TRUE)
sc <- spark_connect (master = cluster_url)
Ливи Связи
Livy, «Служба REST с открытым исходным кодом для Apache Spark (лицензия Apache)» , доступна начиная с версии sparklyr 0.5
как экспериментальная функция . Среди многих сценариев это позволяет подключаться с рабочего стола RStudio к Apache Spark, когда Livy доступен и правильно настроен в удаленном кластере.
Для работы с Livy локально, sparklyr
поддерживает livy_install ()
, который устанавливает Livy в вашей локальной среде, это похоже на spark_install ()
. Поскольку Livy - это служба, позволяющая удаленно подключаться к Apache Spark, ее необходимо запустить с помощью livy_service_start ()
.Когда служба запущена, spark_connect ()
должен ссылаться на запущенную службу и использовать method = "Livy"
, тогда sparklyr
можно использовать как обычно. Ниже приводится краткий пример:
livy_install ()
livy_service_start ()
sc <- spark_connect (master = "http: // localhost: 8998", method = "livy")
copy_to (сбн, радужная оболочка)
spark_disconnect (sc)
livy_service_stop ()
Собрать
Функция сбора
передает данные из Spark в R.Данные собираются из кластерной среды и передаются в локальную память R. В процессе все данные сначала передаются от узлов-исполнителей к узлу драйвера. Следовательно, у узла драйвера должно быть достаточно памяти для сбора всех данных.
Сбор данных на узле драйвера выполняется относительно медленно. Процесс также раздувает данные по мере их перемещения от узлов-исполнителей к узлу драйвера. Следует соблюдать осторожность при сборе больших данных.
Следующие параметры можно настроить, чтобы избежать ошибок OutOfMemory и Timeout:
- искра.Execitor.heartbeatInterval
- spark.network.timeout
- spark.driver.extraJavaOptions
- spark.driver.memory
- spark.yarn.driver.memoryOverhead
- spark.driver.maxResultSize
Конфигурация
В этом разделе описаны различные параметры, доступные для настройки поведения пакета sparklyr , а также базового кластера Spark. Также рассматривается создание нескольких профилей конфигурации (например, разработка, тестирование, производство).
Файлы конфигурации
Конфигурация для подключения Spark указывается через параметр config
функции spark_connect. По умолчанию конфигурация устанавливается путем вызова функции spark_config. Этот код представляет поведение по умолчанию:
spark_connect (master = "local", config = spark_config ())
По умолчанию функция spark_config считывает данные конфигурации из файла с именем config.yml
, расположенного в текущем рабочем каталоге (или в родительских каталогах, если он не находится в рабочем каталоге).Этот файл не требуется, его нужно предоставить только для изменения поведения по умолчанию. Вы также можете указать альтернативное имя и / или расположение файла конфигурации.
Файл config.yml
, в свою очередь, обрабатывается с помощью пакета config, который обеспечивает поддержку нескольких именованных профилей конфигурации.
Варианты комплектации
Для настройки поведения пакета sparklyr доступен ряд параметров:
Например, в этом файле конфигурации для количества локальных ядер установлено значение 4, а для объема памяти, выделенной для драйвера Spark, значение 4G:
по умолчанию:
спарклир.cores.local: 4
sparklyr.shell.driver-memory: 4G
Обратите внимание, что использование по умолчанию
будет объяснено ниже в разделе «Несколько профилей».
Искра
Sparklyr.shell. * | Параметры командной строки для передачи в spark-submit . Например, sparklyr.shell.executor-memory: 20G настраивает --executor-memory 20G (подробные сведения о поддерживаемых параметрах см. В документации Spark). |
Время выполнения
sparklyr.cores.local | Количество ядер для использования при работе в локальном режиме (по умолчанию parallel :: detectCores ). |
sparklyr.sparkui.url | Настраивает URL-адрес веб-интерфейса Spark UI при вызове spark_web. |
sparklyr.default Пакеты | Список пакетов Spark по умолчанию для установки в кластере (по умолчанию «com.databricks: spark-csv_2.11: 1.3.0 »и« com.amazonaws: aws-java-sdk-pom: 1.10.34 »). |
sparklyr.sanitize.column.names | Позволяет Spark автоматически переименовывать имена столбцов в соответствии с ограничениями именования Spark. |
Диагностика
sparklyr.backend.threads | Число потоков, используемых в серверной части sparklyr для обработки входящих подключений от клиента sparklyr. |
sparklyr.app.jar | Jar-файл приложения для отправки в Spark submit. |
sparklyr.ports.file | Путь к файлу портов, который используется для обмена информацией о подключении с серверной частью Sparklyr. |
sparklyr.ports.wait.seconds | Количество секунд ожидания инициализации соединения Spark. |
sparklyr.verbose | Обеспечивает дополнительную обратную связь при выполнении операций.В настоящее время используется, чтобы сообщить, какие имена столбцов обрабатываются в sparklyr.sanitize.column.names. |
Опции Spark
Вы также можете использовать config.yml
для указания произвольных свойств конфигурации Spark:
искра. * | Параметры конфигурации для контекста Spark (применяются путем создания SparkConf , содержащего указанные свойства).Например, spark.executor.memory: 1g настраивает объем памяти, доступный для каждого исполнителя (дополнительные параметры см. В разделе Конфигурация Spark). |
искр. Скл. * | Параметры конфигурации для контекста Spark SQL (применяется с помощью SET). Например, spark.sql.shuffle.partitions настраивает количество разделов, которые будут использоваться при перемешивании (дополнительные параметры см. В Руководстве по программированию SQL). |
Например, в этом файле конфигурации задается настраиваемый рабочий каталог для Spark и указывается 100 как количество разделов, используемых при перетасовке данных для объединений или агрегатов:
по умолчанию:
искра.local.dir: / tmp / искра-царапина
spark.sql.shuffle.partitions: 100
Опции пользователя
Вы также можете включить произвольные пользовательские параметры в файл config.yml
. Их можно называть как угодно, при условии, что они не используют в качестве префикса Spark
или Sparklyr
. Например, этот файл конфигурации определяет параметры набора данных
и размера выборки
:
по умолчанию:
набор данных: "наблюдения.паркет"
объем выборки: 10000
Несколько профилей
Пакет config позволяет определять несколько именованных профилей конфигурации для разных сред (например, по умолчанию, тестовая, производственная). Все среды автоматически наследуются от среды по умолчанию для и при желании могут наследовать друг от друга.
Например, вы можете использовать отдельные наборы данных для разработки и тестирования или использовать настраиваемые свойства конфигурации Spark, которые применяются только при работе в производственном кластере.Вот как это будет выражено в config.yml
:
по умолчанию:
набор данных: "наблюдения-dev.parquet"
размер выборки: 10000
производство:
доля искры: 0,9
spark.rdd.compress: правда
набор данных: "monitoring.parquet"
размер выборки: null
Вы также можете использовать эту функцию, чтобы указать отдельные главные узлы Spark для разных сред, например:
по умолчанию:
spark.master: "местный"
производство:
spark.master: "spark: // local: 7077"
В этой конфигурации вы можете полностью опустить аргумент master
из вызова spark_connect:
sc <- spark_connect ()
Обратите внимание, что текущая активная конфигурация определяется через значение переменной среды R_CONFIG_ACTIVE
.Дополнительные сведения см. В документации по пакету конфигурации.
Тюнинг
Как правило, вам необходимо настроить кластер Spark, чтобы он работал хорошо. Приложения Spark обычно потребляют много ресурсов. Существует множество регуляторов для управления производительностью узлов Yarn и исполнителей (т. Е. Рабочих) в кластере. Некоторые из параметров, на которые следует обратить внимание:
- spark.executor.heartbeatInterval
- spark.network.timeout
- spark.executor.extraJavaOptions
- spark.executor.memory
- spark.yarn.executor.memoryOverhead
- spark.executor.cores
- spark.executor.instances (если не включен)
Пример конфигурации
Вот пример конфигурации Spark для кластера EMR на AWS с 1 главным и 2 рабочими узлами. Каждый узел имеет 8 виртуальных ЦП и 61 ГиБ памяти.
spark.driver.extraJavaOptions | добавить -XX: MaxPermSize = 30G |
искра.driver.maxResultSize | 0 |
свеча. Память привода | 30 г |
Spark.yarn.driver.memoryOverhead | 4096 |
spark.yarn.executor.memoryOverhead | 4096 |
spark.executor.memory | 4G |
spark.executor.cores | 2 |
spark.dynamicAllocation.maxExecutors | 15 |
Параметры конфигурации могут быть установлены в объекте config R или могут быть установлены в конфигурации .yml
. Кроме того, они могут быть установлены в файле spark-defaults.conf
.
Конфигурация в сценарии R
config <- spark_config ()
config $ spark.executor.cores <- 2
config $ spark.executor.memory <- "4G"
sc <- spark_connect (master = "yarn-client", config = config, version = '2.0.0')
Конфигурация в YAML скрипте
по умолчанию:
spark.executor.cores: 2
spark.executor.memory: 4G
Сервер RStudio
RStudio Server предоставляет веб-интерфейс IDE для удаленного сеанса R, что делает его идеальным для использования в качестве внешнего интерфейса для кластера Spark.В этом разделе рассматриваются некоторые дополнительные параметры конфигурации, которые полезны для RStudio Server.
Варианты подключения
Панель RStudio IDE Spark предоставляет диалоговое окно New Connection для помощи в подключении как к локальным экземплярам кластеров Spark, так и к Spark:
Вы можете настроить, какие варианты подключения будут представлены с помощью параметра rstudio.spark.connections
. По умолчанию пользователям предоставляется возможность как локальных, так и кластерных подключений, однако вы можете изменить это поведение, чтобы представить только один из них или даже определенный главный URL-адрес Spark.Вот некоторые часто используемые комбинации вариантов подключения:
c («локальный», «кластерный») | По умолчанию. Представьте подключения как к локальным, так и к кластерным экземплярам Spark. |
«местный» | Представлять только подключения к локальным экземплярам Spark. |
"искра: // местный: 7077" | Представляет только подключение к определенному кластеру Spark. |
c ("spark: // local: 7077", "cluster") | Представляет подключение к определенному кластеру Spark и другим кластерам. |
Этот параметр обычно следует устанавливать в Rprofile.site. Например:
параметры (rstudio.spark.connections = "spark: // local: 7077")
Искровые установки
Если вы работаете в локальном режиме (в отличие от режима кластера), вы можете захотеть предоставить предустановленную версию (и) Spark, которая будет доступна всем пользователям сервера.Вы можете сделать это, установив версии Spark в общий каталог (например, / opt / spark
), а затем назначив его каталогом установки Spark.
Например, после установки одной или нескольких версий Spark на / opt / spark
вы должны добавить в Rprofile.site следующее:
параметры (spark.install.dir = "/ opt / spark")
Если этот каталог доступен только для чтения для обычных пользователей, RStudio не будет предлагать установку дополнительных версий, которые помогут направить пользователей к версии, которая, как известно, совместима с версиями Spark, развернутыми на кластерах в той же организации.