Способ рекомендации информации, устройство, сервер рекомендаций и запоминающее устройство

Изобретение относится к технологиям машинного обучения. Технический результат заключается в повышении точности рекомендаций информации. Технический результат достигается за счет прогнозирования вектора признаков рекомендуемой информации при помощи модели рекомендаций, получения показателя кликабельности рекомендуемой информации, модели рекомендаций, которая отбрасывает параметры модели, соответствующие признакам, которые аналогичны признаку в векторе признаков и имеют частоту, меньшую или равную первому пороговому значению, и выдачи рекомендуемой информации согласно показателю кликабельности. 5 н. и 12 з.п. ф-лы, 10 ил.

 

Ссылка на родственные заявки

[0001] Согласно настоящей заявке испрашивается приоритет согласно заявке на патент Китайской Народной Республики №201911053819.3, поданной 31 октября 2019 г., содержание которой полностью включено в настоящий документ посредством ссылки.

Область техники, к которой относится настоящее изобретение

[0002] Настоящее изобретение относится к области технологий машинного обучения и, в частности, относится к способу и устройству для рекомендации информации, и серверу рекомендаций, и его запоминающему устройству.

Предшествующий уровень техники настоящего изобретения

[0003] С быстрым развитием технологий взаимодействия с искусственным интеллектом предварительно обученные модели машинного обучения начали широко использовать в сценариях больших данных с такими типами сервисов, как выдача рекомендаций, поиск, реклама и т.п. Для заданных пользователем целей поиска в качестве предварительной информации могут собирать некоторое количество подходящей рекомендуемой информации. В этом случае необходимо прогнозировать показателя кликабельности (отношения числа кликов по ссылке к числу ее показов) некоторого количества рекомендуемой информации с тем, чтобы отправлять пользователю оптимальную информацию, исходя из показателя кликабельности некоторого количества рекомендуемой информации.

[0004] Обычно модель прогнозирования сервиса, наиболее подходящую для поведения пользователей при клике (щелчке мышью) на рекомендуемой информации, обучают при помощи алгоритма логистической регрессии, и модель прогнозирования сервиса содержит в рекомендуемой информации весовые коэффициенты модели в каждом измерении признака. При прогнозировании показателя кликабельности каждой рекомендуемой информации необходимо искать значения признака в каждом измерении признака в рекомендуемой информации и соответствующие весовые коэффициенты модели. В этом случае, в силу большого количества разреженных признаков высокой размерности в рекомендуемой информации, например, идентификатор пользователя (ID), идентификатор точки привязки, идентификатор устройства и т.п., в измерении идентификаторов в рекомендуемой информации, размер которого может достигать 1 миллиарда, модель прогнозирования сервиса может занимать большой объем памяти при хранении большого количества разреженных признаков высокой размерности в рекомендуемой информации, что приводит к нехватке памяти. Для рекомендуемой информации, содержащей большое количество признаков, поиск весовых коэффициентов модели в каждом измерении признака в рекомендуемой информации занимает много времени, что вызывает дополнительную нагрузку на модель прогнозирования сервиса и снижает эффективность прогнозирования рекомендуемой информации.

Краткое раскрытие настоящего изобретения

[0005] Варианты осуществления настоящего изобретения предусматривают способ и устройство для рекомендации информации, и сервер рекомендаций, и запоминающее устройство для него, что сокращает размеры модели рекомендаций и повышает эффективность рекомендации информации при условии точности рекомендаций.

[0006] Согласно первому аспекту, варианты осуществления настоящего изобретения предусматривают способ для рекомендации информации. Способ предусматривает:

[0007] получение данных о показателе кликабельности рекомендуемой информации путем прогнозирования вектора признаков рекомендуемой информации при помощи модели рекомендаций, при этом параметры модели, соответствующие признакам, которые совпадают с признаками вектора признаков и имеют частоты, меньшие или равные первому пороговому значению, удаляют из модели рекомендаций; и

[0008] выдачу рекомендуемой информации, исходя из показателя кликабельности.

[0009] Согласно второму аспекту, варианты осуществления настоящего изобретения предусматривают устройство для рекомендации информации. Устройство предусматривает:

[0010] модуль прогнозирования клика, рассчитанный на получение показателя кликабельности рекомендуемой информации путем прогнозирования вектора признаков рекомендуемой информации при помощи модели рекомендаций, при этом параметры модели, соответствующие признакам, которые совпадают с признаками вектора признаков и имеют частоты, меньшие и равные первому пороговому значению, удаляют из модели рекомендаций; и

[0011] модуль рекомендации информации, рассчитанный на выдачу рекомендуемой информации, исходя из показателя кликабельности.

[0012] Согласно третьему аспекту, варианты осуществления настоящего изобретения предусматривают сервер рекомендаций. Сервер рекомендаций предусматривает:

[0013] по меньшей мере один процессор; и

[0014] накопительное устройство, рассчитанное на хранение по меньшей мере одной программы;

[0015] при этом загрузка и запуск по меньшей мере одной программы по меньшей мере на одном процессоре приводит к тому, что по меньшей мере один процессор осуществляет способ рекомендации информации согласно любому из вариантов осуществления настоящего изобретения.

[0016] Согласно четвертому аспекту, варианты осуществления настоящего изобретения предусматривают систему обучения модели. Эта система предусматривает: кластер серверов обучения и кластер серверов параметров; при этом кластер серверов параметров рассчитан на хранение параметров модели, соответствующих различным признакам в предварительно заданной модели машинного обучения;

[0017] кластер серверов обучения, рассчитанный на последовательное получение актуальных параметров модели, которые соответствуют различным признакам в модели машинного обучения, с кластера серверов параметров, получение соответствующего показателя кликабельности путем обработки вектора прежних признаков из прежней рекомендованной информации, исходя из параметра модели, вычисление коэффициента потерь параметров модели, соответствующего признакам с частотами выше первого порогового значения в модели машинного обучения, и возвращение коэффициента потерь на кластер серверов параметров; и

[0018] кластер серверов параметров дополнительно рассчитан на обновление соответствующих параметров модели согласно коэффициенту потерь и передачу обновленных параметров модели обратно на кластер серверов параметров, удаление параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению, после завершения обучения модели машинного обучения, получение оставшихся параметров модели, и создание соответствующей модели рекомендаций, исходя из оставшихся параметров модели.

[0019] Согласно пятому аспекту, варианты осуществления настоящего изобретения предусматривают машиночитаемое запоминающее устройство. На машиночитаемом запоминающем устройстве хранят компьютерную программу; при этом загрузка и запуск компьютерной программы при помощи процессора приводит к тому, что процессор выполняет способ рекомендации информации согласно любому из вариантов осуществления настоящего изобретения.

Краткое описание фигур

[0020] На фиг. 1А представлена блок-схема способа рекомендации информации согласно варианту осуществления настоящего изобретения.

[0021] На фиг. 1В представлена принципиальная схема для процедуры рекомендации информации согласно варианту осуществления настоящего изобретения.

[0022] На фиг. 2А представлена блок-схема обучения модели рекомендации в способе рекомендации информации согласно варианту осуществления настоящего изобретения.

[0023] На фиг. 2В представлена принципиальная схема процедуры обучения модели рекомендации информации согласно варианту осуществления настоящего изобретения.

[0024] На фиг. 3А представлена блок-схема обучения модели рекомендации в другом способе рекомендации информации согласно варианту осуществления настоящего изобретения.

[0025] На фиг. 3В представлена принципиальная схема обучения модели рекомендации в другом способе рекомендации информации согласно варианту осуществления настоящего изобретения.

[0026] На фиг. 4 представлена блок-схема другого способа рекомендации информации согласно варианту осуществления настоящего изобретения.

[0027] На фиг. 5 представлена принципиальная схема конструкции устройства для рекомендации информации согласно варианту осуществления настоящего изобретения.

[0028] На фиг. 6 представлена принципиальная структурная схема системы обучения модели согласно варианту осуществления настоящего изобретения.

[0029] На фиг. 7 представлена принципиальная схема конструкции сервера рекомендаций согласно варианту осуществления настоящего изобретения.

Подробное раскрытие настоящего изобретения

[0030] На фиг. 1А представлена блок-схема способа рекомендации информации согласно варианту осуществления настоящего изобретения, и этот вариант осуществления могут применять к любому фоновому серверу рекомендаций, который может предоставлять пользователю услугу запроса на выдачу подходящей рекомендуемой информации. Технические решения в варианте осуществления настоящего изобретения применимы в случае, если пользователю рекомендуют подходящую информацию. Способ рекомендации информации согласно вариантам осуществления могут выполнять при помощи устройства для рекомендации информации согласно вариантам осуществления. Устройство могут реализовать при помощи программного обеспечения и/или аппаратного обеспечения, и для осуществления способа могут интегрировать в сервер рекомендаций.

[0031] Как видно из фиг. 1А, способ может предусматривать процедуры с S110 по S120.

[0032] На стадии S110 показатель кликабельности рекомендуемой информации получают путем прогнозирования вектора признаков рекомендуемой информации в модели рекомендаций.

[0033] Push-информация представляет собой большой объем рекомендуемой информации, соответствующей текущему запросу на выдачу, ее поиск осуществляет push-сервер, исходя из полученного запроса от клиента и данных о прежнем поведении пользователя, с помощью алгоритма itemCF рекомендации объекта, алгоритма userCF рекомендации пользователя, основанного на контенте алгоритма рекомендации контента, или векторного алгоритма рекомендации услуги, или подобных им из предыдущего уровня техники.

[0034] Например, в случае, если пользователь делает запрос, чтобы сервер рекомендаций рекомендовал соответствующую подходящую информацию, запрос на выдачу представляет собой команду запроса, соответственно сгенерированную путем выполнения соответствующей операции обновления контента или операции поиска информации о клиенте. В случае, если запрос на выдачу не содержит конкретного контента запроса, новостей, информации, музыки или короткого видео или другого контента, интересующего пользователя, его могут определять путем анализа данных прежнего поведения пользователя, чтобы искать соответствующий контент данных в качестве рекомендуемой информации, соответствующей запросу. Способ запроса, как правило, относится к случаю, в котором пользователь не определяет конкретную запрашиваемую информацию при выполнении операции обновления контента в клиентской части соответствующего программного продукта. В этом случае в результате анализа соответствующей рекомендуемой информации, исходя из данных о прежнем поведении, пользователю рекомендуют качественную информацию. В случае, если запрос на выдачу содержит конкретный контент запроса, новости, информацию, музыку или короткое видео и другой контент, связанный с конкретным контентом запроса, поиск могут осуществлять путем анализа конкретного контента запроса, и найденная связанная информация выступает в качестве соответствующей рекомендуемой информации по запросу. Способ запроса, как правило, относится к случаю, когда пользователь выполняет операцию поиска соответствующей информации в клиентской части соответствующего программного продукта. В этом случае соответствующую push-информацию определяют, исходя из конкретного контента запроса, и поэтому пользователю рекомендуют подходящую информацию.

[0035] Вектор признаков рекомендуемой информации относится к данным признака в различных измерениях, которые анализируют исходя из различных признаков рекомендуемой информации. Например, когда видео анализируют в аспектах «нравится», «переслать» и «комментировать», результаты во всех этих трех аспектах могут составлять трехмерный вектор признаков этого видео.

[0036] Кроме того, модель рекомендаций представляет собой предварительно обученную сетевую модель, рассчитанную на быструю фильтрацию наиболее подходящей рекомендуемой пользователю информации, и предварительное обучение представляет собой обучение поведению пользователя при клике на каждой прежней рекомендованной информации для вектора признаков, соответствующего каждой прежней рекомендованной информации. При обучении на предшествующем уровне техники предварительно заданные параметры модели, соответствующие признакам сетевой модели и аналогичные признакам в векторе признаков, который соответствует рекомендуемой информации, последовательно обновляют, так что обученная сетевая модель содержит параметры модели, соответствующие признакам в векторе признаков, который соответствует рекомендуемой информацией, для анализа признаков в векторе признаков. В сценарии рекомендации, например, поиска, персонализированной службы отправки данных, рекламного уведомления, рекомендуемая информация содержит большое количество различных типов признаков, так что обученная сетевая модель дополнительно содержит параметры модели, соответствующие большому количеству различных типов признаков, и занятость памяти слишком высока. Кроме того, при прогнозировании поведения пользователя при клике для рекомендуемой информации, на поиск параметров модели, соответствующих признакам, среди большого количества параметров модели может быть потрачено больше времени, что снижает эффективность работы модели.

[0037] Согласно этому варианту осуществления и учитывая, что вектор признаков рекомендуемой информации может содержать большое количество разреженных признаков высокой размерности, таких как идентификатор пользователя, идентификатор точки привязки, или идентификатор устройства и т.п., это может не повлиять на поведение пользователя при клике по различной рекомендуемой информации в случае, если такие разреженные признаки высокой размерности редко участвуют в процедуре обучения поведению пользователя при клике на рекомендуемой информации. Таким образом, в процедуре обучения модели, представленной на фиг. 1В, обучение таких признаков в векторе признаков прежней рекомендованной информации можно исключить, и обучение признаков, имеющих большее влияние на поведение пользователя при клике, может остаться неизменным, так что обученная модель рекомендаций просто сохраняет параметры модели, которые соответствуют признакам, оказывающим большее влияние на поведение пользователя при клике. Согласно этим вариантам осуществления, количество появления каждого признака в сетевой модели (частота признака в вариантах осуществления) могут определять, исходя из вектора признаков ранее рекомендованной информации в процедуре обучения модели, и количество появлений отражает признаки поведения пользователя при клике. Таким образом, в вариантах осуществления параметры модели, которые соответствуют признакам, аналогичным признакам вектора признаков, и имеют частоты, которые меньше или равны первому пороговому значению, удаляют из обученной модели рекомендаций, и в обученной модели рекомендаций оставляют только параметры модели, соответствующие признакам с частотами, которые больше первого порогового значения. В результате сокращают размеры модели рекомендаций и уменьшают память, занимаемую параметрами модели в модели рекомендаций. Например, в вариантах осуществления параметры модели в модели рекомендаций могут представлять собой весовые коэффициенты, соответствующие различным признакам в модели рекомендаций, причем весовой коэффициент рассчитан на представление влияния каждого из признаков на поведение пользователя при клике.

[0038] В этом случае показатель кликабельности рекомендуемой информации указывает на частоту совершения кликов по рекомендуемой информации, которую отфильтровали изо всей рекомендуемой информации, рекомендовали клиенту пользователя, и на которую пользователь кликнул и которую просмотрел. То есть, фактическое количество кликов по рекомендованной информации делят на общее количество рекомендованной информации, и таким образом определяют качество каждой рекомендованной информации, предъявленной пользователю.

[0039] Например, пользователь выполняет операцию обновления соответствующего контента или операцию поиска информации на клиенте, чтобы создать соответствующий запрос на выдачу и отправить соответствующий запрос на выдачу на сервер рекомендаций. В вариантах осуществления сервер рекомендаций просматривает большой объем рекомендуемой информации, соответствующей запросу на выдачу, при помощи алгоритма сходства, известного на предшествующем уровне техники, исходя из данных о прежнем поведении пользователя, и получает соответствующий вектор признаков из службы признаков, где хранят различные типы признаков загруженной информации, исходя из идентификационной информации каждой рекомендованной информации, и тем самым вводит вектор признаков каждой рекомендуемой информации в предварительно обученную модель рекомендаций. Кроме того, соответствующие признаки в векторе признаков рекомендуемой информации анализируют, исходя из параметров модели, которые соответствуют признакам, оставшимся в модели рекомендаций и имеющими частоты, которые больше первого порогового значения, и таким образом прогнозируют показатель кликабельности полученной рекомендуемой информации.

[0040] На стадии S120 рекомендуемую информацию выдают, исходя из показателя кликабельности.

[0041] Например, после получения показателя кликабельности для каждой рекомендуемой информации, можно в явном виде определить предпочтения пользователя по каждой рекомендуемой информации, и соответствующую рекомендуемую информацию отфильтровывают из всей рекомендуемой информации, исходя из запроса на выдачу и показателя кликабельности пользователя, и предъявляют пользователю. Например, рекомендуемую информацию с наибольшим показателем кликабельности предъявляют пользователю в том случае, когда пользователю в настоящее время требуется получить оптимальную порцию информации, и некоторое количество рекомендуемой информации с максимальным показателем кликабельности предъявляют пользователю в том случае, когда пользователю требуется получить некоторое количество рекомендуемой информации за один раз.

[0042] В техническом решении согласно настоящему варианту осуществления, в процедуре обучения модели рекомендаций параметры модели, соответствующие признакам, которые аналогичны признакам в векторе признаков рекомендуемой информации и имеют частоты меньшие или равные первому пороговому значению, удаляют, а параметры модели, соответствующие признакам с частотами большими, чем первое пороговое значение, оставляют, тем самым уменьшают размеры модели рекомендации и память, занимаемую параметрами модели в модели рекомендаций. Кроме того, в случае, когда вектор признаков рекомендуемой информации спрогнозирован, исходя из параметров модели в модели рекомендаций, необязательно просматривать все параметры модели, которые соответствуют признакам в векторе признаков, посредством этого сокращают время, затрачиваемое на процедуру поиска. Анализируют признаки в векторе признаков рекомендуемой информации, которые соответствуют параметрам модели, оставшимся в модели рекомендаций. В результате повышают эффективность рекомендации информации и обеспечивают точность.

[0043] На фиг. 2А представлена блок-схема обучения модели рекомендации в способе рекомендации информации согласно варианту осуществления настоящего изобретения, и на фиг. 2В представлена принципиальная схема процедуры обучения модели рекомендации информации согласно варианту осуществления настоящего изобретения. Варианты осуществления улучшают, исходя из описанных выше вариантов осуществления. Обучение модели рекомендаций согласно вариантам осуществления могут выполнять в режиме офлайн, и процедуру офлайн обучения модели рекомендаций и прогнозирование показателя кликабельности каждой рекомендуемой информации в режиме онлайн при помощи обученной модели рекомендаций могут осуществлять на различных устройствах, так что модель рекомендаций могут обучать в системе обучения предварительной структурной модели согласно вариантам осуществления. После завершения обучения модели рекомендаций ее предъявляют серверу рекомендаций для выполнения способа рекомендации информации в режиме онлайн согласно любому варианту осуществления настоящего изобретения. Для описания процедуры обучения модели рекомендаций в режиме офлайн, в данном варианте осуществления даны подробные объяснения.

[0044] Как видно из фиг. 2А, этот вариант осуществления предусматривает процедуры с S210 по S230.

[0045] На стадии S210 параметры модели, которые соответствуют признакам с частотами, превышающими первое пороговое значение в модели машинного обучения, последовательно обновляют в предварительно заданной модели машинного обучения, исходя из показателя кликабельности вектора прежних признаков прежней рекомендованной информации.

[0046] Перед обучением модели рекомендаций предварительно структурируют модель машинного обучения, и в модели машинного обучения предварительно задают начальные значения соответствующих параметров модели для каждого из различных типов признаков. По погрешностям прогноза показателя кликабельности для большого количества прежней рекомендованной информации различных типов последовательно анализируют параметры модели, соответствующие признакам в модели машинного обучения, это делают до тех пор, пока не будет точно спрогнозирован показатель кликабельности прежней рекомендованной информации любого типа.

[0047] Например, большой объем прежней рекомендованной информации различных типов получают с целью точного анализа поведения пользователя при клике для различных типов информации, тем самым определяют предпочтения пользователя. Некоторое количество прежних векторов признаков из прежней рекомендованной информации вводят в предварительно заданную модель машинного обучения, и соответствующие признаки из вектора прежних признаков анализируют, исходя из предварительно заданных текущих параметров модели в модели машинного обучения, таким образом получают показатель кликабельности каждой прежней рекомендованной информации. Погрешность прогнозирования в модели машинного обучения при текущих параметрах модели прогнозируют путем сопоставления прежнего тега и показателя кликабельности прежней рекомендованной информации. Одновременно с этим, исходя из признаков в векторе признаков прежней рекомендованной информации, определяют количество появлений каждого признака в модели машинного обучения, то есть, частотность признаков в этом варианте осуществления, и погрешность прогнозирования передают обратно в модель машинного обучения для изменения выбранных параметров модели, соответствующих признакам с частотами, которые больше первого порогового значения в модели машинного обучения, с тем, чтобы повысить точность последующих результатов прогнозирования.

[0048] Например, как показано на фиг. 2В, последовательное обновление параметров модели, соответствующих признакам с частотами, которые больше первого порогового значения в модели машинного обучения, исходя из показателя кликабельности вектора прежних признаков прежней рекомендованной информации в предварительно заданной модели машинного обучения предусматривает согласно вариантам осуществления: получение соответствующего текущего показателя кликабельности путем прогнозирования вектора прежних признаков в текущей прежней рекомендованной информации при помощи модели машинного обучения; вычисление при помощи предварительно заданной функции потерь коэффициента потерь текущего показателя кликабельности при параметрах модели, соответствующих признакам с частотами, которые больше первого порогового значения, путем изменения соответствующих параметров модели в модели машинного обучения при помощи коэффициента потерь, прогнозирование вектора прежних признаков следующей прежней рекомендованной информации при помощи модели машинного обучения, и изменение параметров модели, соответствующих признакам с частотами, которые меньше первого порогового значения в модели машинного обучения, до тех пор, пока не будет завершено обучение модели машинного обучения.

[0049] Например, прежний вектор признаков текущей прежней рекомендованной информации вводят в предварительно заданную модель машинного обучения, соответствующие признаки в прежнем векторе признаков текущей прежней рекомендованной информации анализируют, исходя из текущего параметра модели, и получают текущий показатель кликабельности текущей прежней рекомендованной информации. Частоты признаков в модели машинного обучения анализируют, исходя из признаков в прежнем векторе признаков прежней рекомендованной информации, тем самым помечают параметры модели, соответствующие признакам, частоты которых больше, чем первое пороговое значение. Коэффициент потерь, то есть, значение разности параметров модели, позволяющих точно анализировать показатель кликабельности прежней рекомендованной информации, при параметрах модели, соответствующих признакам с частотами, которые больше первого порогового значения в модели машинного обучения, определяют при помощи предварительно заданной функции потерь, и соответствующие параметры модели в модели машинного обучения изменяют при помощи коэффициента потерь. После изменения получают прежний вектор признаков следующей прежней рекомендованной информации, его вводят в измененную модель машинного обучения. Признаки, соответствующие параметрам модели в прежнем векторе признаков следующей прежней рекомендованной информации анализируют, исходя из измененных параметров модели (параметров модели, соответствующих признакам с частотами, которые больше первого порогового значения), в модели машинного обучения, признаки с частотами, которые меньше или равны первому пороговому значению, исключают, тем самым получают следующий показатель кликабельности следующей прежней рекомендованной информации. Параметры модели, соответствующие признакам с частотами, которые больше первого порогового значения в модели машинного обучения, постоянно изменяют. Процедуры последовательно повторяют до тех пор, пока погрешность прогнозирования показателя кликабельности прежней рекомендованной информации не станет меньше, чем предварительно заданное пороговое значение погрешности, и пока не будет завершено обучение модели машинного обучения.

[0050] На стадии S220 оставшиеся параметры модели получают путем удаления параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению после завершения обучения модели машинного обучения, и модель рекомендаций создают, исходя из оставшихся параметров модели.

[0051] Оставшиеся параметры модели представляют собой параметры модели, соответствующие признакам с частотами, которые меньше первого порогового значения в модели машинного обучения.

[0052] Например, поскольку признаки с частотами, которые меньше или равны первому пороговому значению в модели машинного обучения, мало полезны для прогнозирования поведения пользователя при клике с учетом эффективности модели рекомендаций, после завершения обучения модели машинного обучения в настоящем варианте осуществления параметры модели, соответствующие признакам с частотами, которые меньше или равны первому пороговому значению в модели машинного обучения, могут удалять, непосредственно исходя из пометок в модели параметров, соответствующих признакам с частотами, которые больше первого порогового значения в процедуре обучения модели, что не оказывает влияния на прогнозируемый результат показателя кликабельности рекомендуемой информации. Соответствующую модель рекомендаций создают, исходя из оставшихся параметров модели после удаления параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению (параметров модели, соответствующих признакам с частотами, которые больше первого порогового значения в модели машинного обучения), так что модель рекомендаций просто оставляет параметры модели, соответствующие признакам с частотами, которые меньше первого порогового значения, тем самым уменьшают размеры модели рекомендаций и повышают эффективность модели рекомендаций при условии обеспечения точности рекомендаций.

[0053] Кроме того, для точного определения параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению в модели машинного обучения, после последовательного обновления параметров модели, соответствующих признакам с частотами, которые больше первого порогового значения в модели машинного обучения, вариант осуществления дополнительно предусматривает: задание параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению в модели машинного обучения, в качестве предварительно заданных значений разреженности, с целью удаления предварительно заданных значений разреженности, и получение оставшихся параметров модели после завершения обучения модели машинного обучения.

[0054] Например, в процедуре обучения модели предварительно заданные частоты признаков в модели машинного обучения могут определять по признакам в прежнем векторе признаков в процессе ввода вектора прежних признаков каждой прежней рекомендованной информации в модель машинного обучения. В этом случае изменяют параметры модели, соответствующие признакам с частотами, которые меньше первого порогового значения, и параметры модели, соответствующие признакам с частотами, которые меньше или равны первому пороговому значению, устанавливают в качестве предварительно заданных значений разреженности (в варианте осуществления предварительно заданные значения разреженности - нули), поскольку параметры модели, соответствующие признакам с частотами, которые меньше или равны первому пороговому значению, больше не участвуют в обучении. Параметры модели, установленные в качестве предварительно заданных значений разреженности, удаляют непосредственно после завершения обучения в модели машинного обучения, тем самым оставляют параметры модели, соответствующие признакам с частотами, которые больше первого порогового значения.

[0055] Например, согласно этому варианту осуществления, улучшенный алгоритм следования за регуляризованным лидером (FTRL) настраивают в модели машинного обучения, и параметры модели, соответствующие признакам с частотами, которые больше первого порогового значения, последовательно изменяют при помощи улучшенного алгоритма FTRL в процедуре обучения модели. В предшествующем уровне техники алгоритм FTRL имеет следующий вид:

[0056] В приведенном выше алгоритме g представляет собой коэффициент потерь параметра модели, соответствующего признаку, z и n представляют собой промежуточные переменные модели машинного обучения в процедуре обучения, w представляет собой параметр модели, соответствующий признаку, и α, β, λ1 и λ2 представляют собой заданные параметры обучения разреженности.

[0057] Согласно этому варианту осуществления, частоты признаков в модели машинного обучения определены, исходя из описанного выше алгоритма FTRL, и улучшенный алгоритм FTRL имеет следующий вид:

[0058] В приведенном выше алгоритме ƒ представляет собой частоту признака в модели машинного обучения, λ3 представляет собой первое пороговое значение, определяемое частотой признака; обычное обучение по-прежнему выполняют при помощи улучшенного алгоритма FTRL по параметрам модели, соответствующим признакам с частотами, которые меньше первого порогового значения в модели машинного обучения, а параметры модели, соответствующие признакам с частотами, которые меньше или равны первому пороговому значению, устанавливают равными нулю и они могут не принимать участия в дальнейшей процедуре машинного обучения. То есть, в процедуре обучения модели машинного обучения предварительно заданные частоты признаков в модели машинного обучения определяют, исходя из вектора прежних признаков прежней рекомендованной информации, параметры модели машинного обучения, соответствующие признакам, обучают в случае, когда частоты признаков больше, чем первое пороговое значение. В противном случае параметры модели, соответствующие признакам, всегда задают равными нулю. После завершения обучения модели машинного обучения создают соответствующую модель рекомендаций, исходя из параметров модели отличных от нуля, что уменьшает размер модели рекомендаций и повышает эффективность модели рекомендаций при условии точности рекомендаций.

[0059] На стадии S230 модель рекомендаций публикуют в Интернете.

[0060] Например, после создания соответствующей модели рекомендаций эту модель рекомендаций могут напрямую опубликовать в Интернете. То есть, в любом варианте осуществления настоящего изобретения модель рекомендаций применяют на сервере рекомендаций способа для рекомендации информации для того, чтобы напрямую прогнозировать показатель кликабельности каждой рекомендуемой информации в режиме онлайн при помощи модели рекомендаций, рекомендовать пользователю более интересный контент и повышать точность и эффективность рекомендации информации.

[0061] В техническом решении согласно этому варианту осуществления параметры модели, соответствующие признакам с частотами, которые меньше первого порогового значения в модели машинного обучения, последовательно обновляют, исходя из показателя кликабельности прежней рекомендованной информации, спрогнозированной в модели машинного обучения, параметры модели, соответствующие признакам с частотами, которые меньше или равны первому пороговому значению после завершения обучения модели машинного обучения, и, исходя из оставшихся параметров модели создают соответствующую модель рекомендаций. Параметры модели, соответствующие признакам с частотами, которые меньше или равны первому пороговому значению, не требуется моделировать каждый раз, что повышает эффективность обучения модели, уменьшает размеры модели рекомендаций и уменьшает память, занимаемую параметрами модели и разреженным признаком высокой размерности.

[0062] На фиг. 3А представлена блок-схема обучения модели рекомендации в другом способе рекомендации информации согласно варианту осуществления настоящего изобретения, а на фиг. 3В представлена принципиальная схема обучения модели рекомендации в другом способе рекомендации информации согласно варианту осуществления настоящего изобретения. Этот вариант осуществления улучшают, исходя из описанного выше варианта осуществления. По окончании обучения модели машинного обучения прогнозирование модели может зависать в случае, если размер модели достиг ограничения по памяти. Поэтому для обеспечения эффективности модели рекомендаций параметры модели, соответствующие признакам с более низкими частотами, необходимо дополнительно фильтровать. Этот вариант осуществления в первую очередь иллюстрирует процедуру дополнительной оптимизации модели рекомендаций.

[0063] Как видно из фиг. 3А, способ может предусматривать процедуры с S310 по S340.

[0064] На стадии S310 параметры модели, которые соответствуют признакам с частотами, превышающими первое пороговое значение в модели машинного обучения, последовательно обновляют в предварительно заданной модели машинного обучения, исходя из показателя кликабельности вектора прежних признаков прежней рекомендованной информации.

[0065] На стадии S320 оставшиеся параметры модели получают путем удаления параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению после завершения обучения модели машинного обучения, и в случае, когда размер модели машинного обучения достигает ограничения по памяти, параметры модели, соответствующие признакам с частотами, которые меньше или равны второму пороговому значению в оставшихся параметрах модели, отфильтровывают, и модель рекомендаций создают, исходя из отфильтрованных оставшихся параметров модели, полученных после фильтрации.

[0066] Например, после завершения обучения модели машинного обучения параметры модели, соответствующие признакам с частотами, которые меньше или равны первому пороговому значению в модели машинного обучения, могут удалять. В случае, когда размер модели машинного обучения достигает ограничения по памяти, параметры модели, соответствующие признакам с частотами, которые меньше или равны второму пороговому значению, отфильтровывают из оставшихся параметров модели после удаления параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению. В этом случае второе пороговое значение выше, чем первое пороговое значение, и соответствующая память освобождается. Соответствующую модель рекомендаций создают, исходя из отфильтрованных оставшихся параметров модели, полученных после фильтрации, тем самым уменьшают размер модели рекомендаций.

[0067] На стадии S330 после завершения обучения модели машинного обучения в текущем интервале времени, частоты различных признаков в модели машинного обучения обновляют с применением предварительно заданного коэффициента ослабления частот, отфильтровывают параметры модели, соответствующие признакам с частотами, которые меньше или равны третьему пороговому значению, из оставшихся параметров модели после удаления параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению, и создают модель рекомендаций, исходя из оставшихся параметров модели, полученных после фильтрации в текущем интервале времени.

[0068] Например, по мере появления новых рекомендуемых услуг в процедуре рекомендации информации постоянно появляются новые признаки. Если признаки рекомендуемой услуги, обновленные в некотором интервале времени, популярны только в этот период времени, позднее ссылку на признаки этой услуги больше не упоминают. Однако признаки этой услуги все еще упоминаются в последнем обучении, поскольку модель машинного обучения зарегистрировала, что частоты признаков этой услуги больше, чем первое пороговое значение в этот период времени, хотя признаки услуги не вносят вклад в обучение модели. Таким образом, для обеспечения точности модели рекомендаций в настоящем варианте осуществления модель машинного обучения могут обучать путем разделения по времени, прежнюю рекомендуемую информацию получают в текущем интервале времени и последовательно изменяют параметры модели, соответствующие признакам с частотами, которые больше первого порогового значения в модели машинного обучения. Поскольку в предшествующий момент времени признаки могут отсутствовать, после завершения обучения модели машинного обучения в текущий период времени частоты различных признаков в модели машинного обучения обновляют с применением предварительно заданного коэффициента ослабления частот. Если признаки не присутствуют на протяжении всего времени, частоты этих признаков могут постоянно ослаблять до тех пор, пока признаки с частотами, которые меньше или равны третьему пороговому значению, не будут удалены. Как видно из фиг. 3В, параметры модели, соответствующие признакам с частотами, которые меньше или равны первому пороговому значению, в этом варианте осуществления сначала удаляют, чтобы получить оставшиеся параметры модели. Затем частоты различных признаков в модели машинного обучения обновляют с применением предварительно заданного коэффициента ослабления частот, и параметры модели, соответствующие признакам с частотами, которые меньше или равны третьему пороговому значению, дополнительно отфильтровывают из оставшихся параметров модели, тем самым создают модель рекомендаций, исходя из отфильтрованных оставшихся параметров модели, полученных после фильтрации в текущем интервале времени, и повышают точность и эффективность модели рекомендаций.

[0069] Следует отметить, что в этом варианте осуществления, исходя из размера обученной модели машинного обучения, могут определять следует ли фильтровать параметры модели, соответствующие признакам с частотами, которые меньше или равны третьему пороговому значению. В случае, если размер модели машинного обучения после завершения обучения в текущий период времени не достигает ограничения по памяти, параметры модели, соответствующие признакам с частотами, которые меньше или равны третьему пороговому значению, могут не фильтровать дополнительно, и соответствующую модель рекомендаций создают непосредственно исходя из оставшихся параметров модели после удаления параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению. В этом варианте осуществления процедуры S320 или S330 могут выполнять избирательно.

[0070] На стадии S340 модель рекомендаций публикуют в Интернете.

[0071] В техническом решении согласно этому варианту осуществления после завершения обучения модели машинного обучения в случае, когда размер модели машинного обучения достигает ограничения по памяти, параметры модели, соответствующие признакам с частотами, которые меньше или равны второму пороговому значению, отфильтровывают из оставшихся параметров модели после удаления параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению. Соответствующую модель рекомендаций создают, исходя из отфильтрованных оставшихся параметров модели, полученных после фильтрации, тем самым уменьшают размер модели рекомендаций, сокращая память, занимаемую параметрами модели и разреженным признаком высокой размерности. Кроме того, модель машинного обучения могут обучать путем разделения по времени, и частоты различных признаков последовательно обновляют при помощи коэффициента ослабления частот, чтобы обеспечить точность и эффективность модели рекомендаций в разные периоды времени. На фиг. 4 представлена блок-схема еще одного способа рекомендации информации согласно варианту осуществления настоящего изобретения. Этот вариант осуществления улучшают, исходя из описанного выше варианта осуществления. В этом варианте осуществления описана процедура рекомендации конкретной информации. Как видно из фиг. 4, этот вариант осуществления может предусматривать процедуры с S410 по S430.

[0072] На стадии S410 оставшиеся параметры модели получают из модели рекомендаций путем удаления параметров модели, соответствующих признакам, которые аналогичны признакам из вектора признаков и имеют частоты, которые меньше или равны первому пороговому значению.

[0073] Например, после получения большого объема рекомендуемой информации, исходя из запроса пользователя, необходимо прогнозировать вектор признаков каждой рекомендуемой информации при помощи модели рекомендаций, опубликованной в Интернете. Таким образом, сначала определяют модель рекомендаций, опубликованную в Интернете, оставшиеся параметры модели после удаления параметров модели, соответствующих признакам, которые аналогичны признакам в векторе признаков и имеют частоты, которые меньше или равны первому пороговому значению, то есть, параметры модели, соответствующие признакам с частотами, которые больше первого порогового значения, ищут в модели рекомендаций, чтобы проанализировать соответствующие признаки в векторе признаков каждой рекомендуемой информации.

[0074] На стадии S420 показатель кликабельности рекомендуемой информации рассчитывают, исходя из оставшихся параметров модели и признаков, соответствующих оставшимся параметрам модели в векторе признаков.

[0075] Например, признаки, соответствующие оставшимся параметрам модели, отфильтровывают из вектора признаков каждой рекомендуемой информации, исходя из оставшихся параметров модели, оставшихся в модели рекомендаций. В этом случае параметры модели могут представлять собой весовой коэффициент признака. Все оставшиеся параметры модели и признаки, соответствующие оставшимся параметрам модели в векторе признаков рекомендуемой информации, перемножают и выполняют суммирование со взвешиванием, и в этом варианте осуществления результат в виде взвешенной суммы признаков, соответствующих оставшимся параметрам модели в векторе признаков рекомендуемой информации, выступает в качестве показателя кликабельности рекомендуемой информации, тем самым сокращают объем вычислений в модели рекомендаций и повышают эффективность рекомендации информации.

[0076] На стадии S430 рекомендуемую информацию ранжируют, исходя из показателя кликабельности, и создают соответствующий список выдачи, чтобы предъявить пользователю рекомендуемую информацию.

[0077] Например, после получения показателя кликабельности некоторого количества рекомендуемой информации, некоторое количество рекомендуемой информации ранжируют, исходя из порядка показателя кликабельности. Наилучшую рекомендуемую информацию выбирают, исходя из требования пользователя, чтобы создать соответствующий список выдачи, и этот список выдачи предъявляют пользователю, чтобы обеспечить точность рекомендации информации.

[0078] В техническом решении согласно настоящему варианту осуществления, в процедуре обучения модели рекомендаций параметры модели, соответствующие признакам, которые аналогичны признакам в векторе признаков рекомендуемой информации и имеют частоты меньшие или равные первому пороговому значению, удаляют, а параметры модели, соответствующие признакам с частотами большими, чем первое пороговое значение, оставляют, тем самым уменьшают размеры модели рекомендации и память, занимаемую параметрами в модели рекомендаций. Кроме того, в случае, когда вектор признаков рекомендуемой информации спрогнозирован, исходя из параметров модели в модели рекомендаций, не все параметры модели, которые соответствуют признакам в векторе признаков, требуется просматривать, посредством этого сокращают время, затрачиваемое на процедуру поиска. Анализируют признаки в векторе признаков рекомендуемой информации, которые соответствуют параметрам модели, оставшимся в модели рекомендаций, что повышает точность и эффективность рекомендации информации, подает пользователю более качественный контент и улучшает передачу информации.

[0079] На фиг. 5 представлена принципиальная схема конструкции устройства для рекомендации информации согласно варианту осуществления настоящего изобретения. Как видно из фиг.5, устройство предусматривает:

[0080] модуль 510 прогнозирования клика, рассчитанный на получение показателя кликабельности рекомендуемой информации путем прогнозирования вектора признаков рекомендуемой информации при помощи модели рекомендаций, при этом из модели рекомендаций удаляют параметры модели, соответствующие признакам, которые совпадают с признаками вектора признаков и имеют частоты, меньшие и равные первому пороговому значению;

[0081] модуль 520 рекомендации информации, рассчитанный на выдачу рекомендуемой информации, исходя из показателя кликабельности.

[0082] В техническом решении согласно настоящему варианту осуществления, в процедуре обучения модели рекомендаций параметры модели, соответствующие признакам, которые аналогичны признакам в векторе признаков рекомендуемой информации и имеют частоты меньшие или равные первому пороговому значению, удаляют, а параметры модели, соответствующие признакам с частотами большими, чем первое пороговое значение, оставляют, тем самым уменьшают размеры модели рекомендаций и память, занимаемую параметрами в модели рекомендаций. Кроме того, в случае, когда вектор признаков рекомендуемой информации спрогнозирован, исходя из параметров модели в модели рекомендаций, требуется просматривать не все параметры модели, которые соответствуют признакам в векторе признаков, посредством этого сокращают время, затрачиваемое на процедуру поиска. Анализируют признаки в векторе признаков рекомендуемой информации, которые соответствуют параметрам модели, оставшимся в модели рекомендаций, что повышает точность и эффективность рекомендации информации.

[0083] Согласно одному варианту осуществления, модуль 510 прогнозирования кликов может быть рассчитан на:

[0084] получение оставшихся параметров модели из модели рекомендаций путем удаления параметров модели, соответствующих признакам, которые аналогичны признакам из вектора признаков и имеют частоты, которые меньше или равны первому пороговому значению; и

[0085] вычисление показателя кликабельности рекомендуемой информации, исходя из оставшихся параметров модели и признаков, соответствующих оставшимся параметрам модели в векторе признаков.

[0086] Согласно одному варианту осуществления, модель рекомендации информации могут создавать при помощи модуля обновления параметров модели и модуля создания модели рекомендаций в системе обучения модели, которая выполняет следующее.

[0087] Модуль обновления параметров модели, рассчитанный на последовательное обновление параметров модели, которые соответствуют признакам с частотами, превышающими первое пороговое значение в модели машинного обучения, исходя из показателя кликабельности вектора прежних признаков прежней рекомендованной информации в предварительно заданной модели машинного обучения.

[0088] Модуль создания модели рекомендаций рассчитан на получение оставшихся параметров модели путем удаления параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению после завершения обучения модели машинного обучения, и на создание модели рекомендаций, исходя из оставшихся параметров модели, при этом оставшиеся параметры модели представляют собой параметры модели, соответствующие признакам с частотами, которые меньше первого порогового значения в модели машинного обучения.

[0089] Согласно одному варианту осуществления, модуль обновления параметров модели может быть рассчитан на:

[0090] получение соответствующего показателя кликабельности путем прогнозирования вектора прежних признаков текущей прежней рекомендованной информации при помощи модели машинного обучения; и

[0091] вычисление коэффициента потерь текущего показателя кликабельности по параметрам модели, соответствующим признакам с частотами, которые больше первого порогового значения, при помощи функции потерь, изменение соответствующих параметров модели в модели машинного обучения при помощи коэффициента потерь, прогнозирование вектора прежних признаков следующей прежней рекомендуемой информации при помощи модели машинного обучения, и изменение параметров модели, соответствующих признакам с частотами, которые больше первого порогового значения в модели машинного обучения до завершения обучения модели машинного обучения.

[0092] Согласно одному варианту осуществления, описанная выше система для обучения модели, может дополнительно предусматривать:

[0093] модуль задания разреженных параметров, рассчитанный на задание параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению в модели машинного обучения, в качестве предварительно заданных значений разреженности с целью удаления параметров модели, установленных в качестве предварительно заданных значений разреженности, после завершения обучения модели машинного обучения.

[0094] Согласно одному варианту осуществления, модуль создания модели рекомендаций может быть рассчитан на:

[0095] фильтрацию по оставшимся параметрам модели в том случае, когда размер модели машинного обучения достигает ограничения по памяти, параметры модели, соответствующие признакам с частотами, которые меньше или равны второму пороговому значению, и создание модели рекомендаций, исходя из оставшихся параметров модели после фильтрации, при этом второе пороговое значение выше первого порогового значения.

[0096] Согласно одному варианту осуществления, модуль создания модели рекомендаций может быть дополнительно рассчитан на:

[0097] обновление частот различных признаков в модели машинного обучения при помощи предварительно заданного коэффициента ослабления частот после завершения обучения модели машинного обучения в текущем интервале времени, фильтрацию параметров модели, соответствующих признакам с частотами, которые меньше или равны третьему пороговому значения, по оставшимся параметрам модели после удаления параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению, и создание модели рекомендаций, исходя из отфильтрованных оставшихся параметров модели, полученных после фильтрации в текущем интервале времени.

[0098] Согласно одному варианту осуществления, описанная выше система для обучения модели, может дополнительно предусматривать:

[0099] модуль публикации модели, рассчитанный на публикацию модели рекомендаций в Интернете.

[00100] Согласно одному варианту осуществления, параметры модели представляют собой весовые коэффициента различных признаков в модели рекомендаций.

[00101] Согласно одному варианту осуществления, модуль 520 рекомендации информации может быть рассчитан на:

[00102] ранжирование рекомендуемой информации, исходя из показателя кликабельности, и создание соответствующего списка выдачи для предъявления рекомендуемой информации пользователю.

[00103] Устройство для рекомендации информации согласно этому варианту осуществления применимо к способам для рекомендации информации согласно любому из описанных выше вариантов осуществления.

[00104] На фиг. 6 представлена принципиальная структурная схема системы для обучения модели согласно варианту осуществления настоящего изобретения. Этот вариант осуществления улучшают, исходя из описанных выше вариантов осуществления. Как видно из фиг. 6, система обучения модели может предусматривать кластер 610 серверов обучения и кластер 620 серверов параметров; при этом кластер серверов параметров рассчитан на хранение параметров модели, соответствующих различным признакам в предварительно заданной модели машинного обучения.

[00105] Например, кластер 610 серверов обучения рассчитан на последовательное получение актуальных параметров модели, соответствующих различным признакам в модели машинного обучения, с кластера 620 серверов параметров, получение соответствующего показателя кликабельности путем обработки вектора прежних признаков из прежней рекомендованной информации, исходя из параметра модели, вычисление коэффициента потерь параметров модели, соответствующего признакам с частотами выше первого порогового значения в модели машинного обучения, и возвращение коэффициента потерь на кластер 620 серверов параметров; и кластер 620 серверов параметров дополнительно рассчитан на обновление соответствующих параметров модели при помощи коэффициента потерь и загрузки обновленных параметров модели обратно на кластер 610 серверов обучения, удаление параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению после завершения обучения модели машинного обучения, получение оставшихся параметров модели и создание соответствующей модели рекомендаций, исходя из оставшихся параметров модели.

[00106] Кластер 610 серверов обучения дополнительно рассчитан на задание параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению в модели машинного обучения, в качестве предварительно заданных значений разреженности, и возвращение предварительно заданных значений разреженности на кластер 620 серверов параметров; кластер 620 серверов дополнительно рассчитан на изменение параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению в модели машинного обучения, в качестве предварительно заданных значений разреженности, и удаление параметров модели, заданных в качестве предварительно заданных разреженных значений, после завершения обучения модели машинного обучения.

[00107] Согласно одному варианту осуществления, для обеспечения эффективности модели, после завершения обучения модели машинного обучения, кластер 620 серверов параметров дополнительно рассчитан на фильтрацию по оставшимся параметрам модели в том случае, когда размер модели машинного обучения достигает ограничения по памяти, параметры модели, соответствующие признакам с частотами, которые меньше или равны второму пороговому значению, и создание модели рекомендаций, исходя из оставшихся параметров модели после фильтрации, при этом второе пороговое значение выше первого порогового значения.

[00108] Например, для обеспечения точности модели рекомендаций в каждый период времени после завершения обучения модели машинного обучения в текущий период времени, кластер 620 серверов параметров рассчитан на обновление частот различных признаков в модели машинного обучения при помощи предварительно заданного коэффициента ослабления частот, фильтрацию параметров модели, соответствующих признакам с частотами, которые меньше или равны третьему пороговому значению, по оставшимся параметрам модели после удаления параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению, и создание модели рекомендаций, исходя из отфильтрованных оставшихся параметров модели, полученных после фильтрации в текущем интервале времени.

[00109] Кроме того, система для обучения модели может дополнительно предусматривать сервер 630 рекомендаций, кластер 620 серверов параметров рассчитан на публикацию созданной модели рекомендаций на сервере 630 рекомендаций, и сервер 630 рекомендаций рассчитан на выполнение способа рекомендации информации согласно любым вариантам осуществления настоящего изобретения.

[00110] Следует отметить, что кластер 610 серверов обучения предусматривает некоторое количество серверов обучения, развернутых в виде распределенной системы, и сервер обучения может выполнять обучение модели машинного обучения в параллельном режиме, тем самым повышая скорость обучения модели. Кластер 620 серверов параметров предусматривает некоторое количество серверов, развернутых в виде распределенной системы, и для снижения нагрузки на хранилище данных сервер параметров рассчитан на хранение параметров модели, соответствующих различным признакам в модели машинного обучения, в виде разделенных наборов. Кроме того, процедуры обучения и процедуры изменения параметров в процедуре обучения модели разделены с целью снижения вычислительной нагрузки при обучении модели.

[00111] В техническом решении согласно этому варианту осуществления модель рекомендаций обучают при помощи кластера серверов обучения и кластера серверов параметров, при этом процедуры обучения и процедуры обновления параметров разделены, а обучение и параметры модели распределены по разным вычислительным узлам. Таким образом снижают вычислительную нагрузку на отдельный сервер и повышают скорость обучения модели рекомендаций.

[00112] На фиг. 7 представлена принципиальная схема конструкции сервера рекомендаций согласно варианту осуществления настоящего изобретения. Как видно из фиг. 7, сервер рекомендаций предусматривает процессор 70, запоминающее устройство 71 и устройство 72 связи. В конфигурацию сервера может быть включен по меньшей мере один процессор 70, и на фиг.7 в качестве примера для иллюстрации использован один процессор 70. Процессор 70, запоминающее устройство 71 и устройство 72 связи в сервере рекомендаций могут быть соединены шиной или другими средствами, и на фиг. 7 в качестве примера приведено соединение шиной.

[00113] Запоминающее устройство 71, как машиночитаемое запоминающее устройство, может быть рассчитано на хранение компьютерной программы, исполняемой компьютером программы и модуля, например, программных команд или модулей, соответствующих способу рекомендации информации согласно любому из вариантов осуществления. Процессор 70 выполняет различные функциональные приложения и обработку данных сервера рекомендаций, то есть, выполняет описанный выше способ рекомендации информации путем исполнения компьютерных программ, команд и модуля, которые хранят в запоминающем устройстве 71.

[00114] Запоминающее устройство 71 может предусматривать, главным образом, область хранения программ и область хранения данных. В области хранения программ могут хранить операционную систему и приложение по меньшей мере для одной функции, и в области хранения данных могут хранить данные, созданные исходя из использования терминала и т.п. Кроме того, запоминающее устройство 71 может предусматривать оперативную память с высоким быстродействием и энергонезависимое запоминающее устройство, например, по меньшей мере, один магнитный диск, флеш-память или другое энергонезависимое твердотельное запоминающее устройство. В некоторых примерах запоминающее устройство 71 может предусматривать запоминающее устройство, расположенное удаленно по отношению к процессору 70, которое может быть подключено к серверу рекомендации по сети. Примеры сети включают, помимо прочего, Интернет, интранет, локальную сеть, сеть мобильной связи и любые их сочетания.

[00115] Устройство связи 72 может быть рассчитано на установления сетевого соединения или соединения по мобильной связи между сервером рекомендаций и клиентом.

[00116] Согласно этому варианту осуществления, сервер рекомендаций может быть рассчитан на выполнение способа рекомендации информации согласно одному из описанных выше вариантов осуществления.

[00117] Один вариант осуществления настоящего изобретения предусматривает также машиночитаемое запоминающее устройство. Загруженная и запущенная процессором компьютерная программа вызывает выполнение сервером способа рекомендации информации согласно любому из описанных выше вариантов осуществления. Способ может предусматривать:

[00118] получение данных о показателе кликабельности рекомендуемой информации путем прогнозирования вектора признаков рекомендуемой информации при помощи модели рекомендаций, при этом параметры модели, соответствующие признакам, которые совпадают с признаками вектора признаков и имеют частоты, меньшие и равные первому пороговому значению, удаляют из модели рекомендаций; и

[00119] выдачу рекомендуемой информации, исходя из показателя кликабельности.

[00120] Для запоминающего устройства, содержащего исполняемые компьютером команды согласно этому варианту осуществления настоящего изобретения, исполняемые компьютером команды не ограничены описанными выше операциями способа, они могут дополнительно выполнять сопутствующие операции в способе рекомендации информации в любом из вариантов осуществления настоящего изобретения.

[00121] Из приведенного выше описания вариантов осуществления специалистам в данной области техники будет очевидно, что настоящее изобретение могут реализовать при помощи программного обеспечения и необходимого аппаратного обеспечения общего назначения, и могут реализовать при помощи аппаратного обеспечения, причем первый вариант является предпочтительным. Исходя из таких объяснений, суть технического решения настоящего изобретения или его часть, добавленная к предшествующему уровню техники, может быть реализована в виде программного продукта. Компьютерный программный продукт могут хранить на машиночитаемом запоминающем устройстве, например, на дискете, постоянном запоминающем устройстве (ROM), в оперативной памяти (RAM), флэш-памяти (FLASH), на жестком диске или оптическом диске компьютера и т.п. Компьютерный программный продукт предусматривает некоторое количество команд, при помощи которых вычислительное устройство (персональный компьютер, сервер или сетевое устройство) выполняет описанный выше способ.

[00122] Следует отметить, что согласно описанным выше вариантам осуществления устройства для рекомендации информации, предусмотренные узлы и модули просто разделены согласно функциональной логике, но не ограничены описанным выше разделением при условии, что могут быть реализованы соответствующие функции. Кроме того, названия функциональных узлов также носят только разграничительный характер и не предназначены для ограничения объема настоящего изобретения.

1. Способ рекомендации информации, предусматривающий:

получение данных о показателе кликабельности рекомендуемой информации путем прогнозирования вектора признаков рекомендуемой информации при помощи модели рекомендаций, при этом из модели рекомендаций удаляют параметры модели, соответствующие признакам, которые совпадают с признаками вектора признаков и имеют частоты, меньшие или равные первому пороговому значению; и

выдачу рекомендуемой информации, исходя из показателя кликабельности;

при этом модель рекомендаций создают при помощи системы обучения модели, которая выполняет:

последовательное обновление параметров модели, соответствующих признакам с частотами, которые больше первого порогового значения в модели машинного обучения, исходя из показателя кликабельности вектора прежних признаков прежней рекомендованной информации в предварительно заданной модели обучения, при этом каждый из признаков в векторе прежних признаков прежней рекомендованной информации в модели машинного обучения представляет собой предварительно заданные начальные значения параметров модели, соответствующих признакам, а частоту каждого из признаков в модели машинного обучения обновляют при помощи предварительно заданного коэффициента ослабления частот после завершения обновления модели машинного обучения; и

удаление параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению, после завершения обучения модели машинного обучения, и создание модели рекомендаций, исходя из актуальных оставшихся параметров модели, при этом оставшиеся параметры модели представляют собой параметры модели, соответствующие признакам с частотами, которые больше первого порогового значения в модели машинного обучения.

2. Способ по п. 1, в котором получение показателя кликабельности рекомендуемой информации путем прогнозирования вектора признаков рекомендуемой информации при помощи модели рекомендаций предусматривает:

получение оставшихся параметров модели из модели рекомендаций путем удаления параметров модели, соответствующих признакам, которые аналогичны признакам из вектора признаков и имеют частоты, которые меньше или равны первому пороговому значению; и

вычисление показателя кликабельности рекомендуемой информации, исходя из оставшихся параметров модели и признаков, соответствующих оставшимся параметрам модели в векторе признаков.

3. Способ по п. 1, в котором последовательное обновление параметров модели, соответствующих признакам с частотами, которые превышают первое пороговое значение в модели машинного обучения, в предварительно заданной модели машинного обучения, исходя из показателя кликабельности вектора прежних признаков прежней рекомендованной информации, предусматривает:

получение соответствующего показателя кликабельности путем прогнозирования вектора прежних признаков текущей прежней рекомендованной информации при помощи модели машинного обучения и

вычисление коэффициента потерь текущего показателя кликабельности по параметрам модели, соответствующим признакам с частотами, которые больше первого порогового значения, при помощи предварительно заданной функции потерь, изменение соответствующих параметров модели в модели машинного обучения при помощи коэффициента потерь, прогнозирование вектора прежних признаков следующей прежней рекомендованной информации при помощи модели машинного обучения и изменение параметров модели, соответствующих признакам с частотами, которые больше первого порогового значения в модели машинного обучения, до завершения обучения модели машинного обучения.

4. Способ по п. 1, в котором после последовательного обновления параметров модели, соответствующих признакам с частотами, которые больше первого порогового значения в модели машинного обучения, способ дополнительно предусматривает:

задание параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению в модели машинного обучения, в качестве предварительно заданных значений разреженности с целью удаления параметров модели, установленных в качестве предварительно заданных значений разреженности, после завершения обучения модели машинного обучения.

5. Способ по п. 1, в котором создание модели рекомендаций, исходя из оставшихся параметров модели, предусматривает:

фильтрацию по оставшимся параметрам модели в том случае, когда размер модели машинного обучения достигает ограничения по памяти, параметров модели, соответствующих признакам с частотами, которые меньше или равны второму пороговому значению, и создание модели рекомендаций, исходя из оставшихся параметров модели после фильтрации, при этом второе пороговое значение выше первого порогового значения.

6. Способ по п. 1, в котором удаление параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению после завершения обучения модели машинного обучения, и создание модели рекомендаций, исходя из оставшихся параметров модели, предусматривает:

обновление частот различных признаков в модели машинного обучения при помощи предварительно заданного коэффициента ослабления частот после завершения обучения модели машинного обучения в текущем интервале времени, фильтрацию параметров модели, соответствующих признакам с частотами, которые меньше или равны третьему пороговому значения, по оставшимся параметрам модели после удаления параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению, и создание модели рекомендаций, исходя из оставшихся параметров модели, полученных после фильтрации в текущем интервале времени.

7. Способ по любому из пп. 1 и 4-6, в котором после создания модели рекомендаций, исходя из актуальных оставшихся параметров модели, способ дополнительно предусматривает:

публикацию модели рекомендаций в Интернете.

8. Способ по любому из пп. 1-6, в котором параметр модели представляет собой весовой коэффициент различных признаков в модели рекомендаций.

9. Способ по п. 1, в котором выдача рекомендуемой информации, исходя из показателя кликабельности, предусматривает:

ранжирование рекомендуемой информации, исходя из показателя кликабельности, и создание соответствующего списка выдачи для предъявления рекомендуемой информации пользователю.

10. Устройство для рекомендации информации, предусматривающее:

модуль прогнозирования клика, рассчитанный на получение показателя кликабельности рекомендуемой информации путем прогнозирования вектора признаков рекомендуемой информации при помощи модели рекомендаций, при этом параметры модели, соответствующие признакам, которые совпадают с признаками вектора признаков и имеют частоты, меньшие и равные первому пороговому значению, удаляют из модели рекомендаций; и

модуль рекомендации информации, рассчитанный на выдачу рекомендуемой информации, исходя из показателя кликабельности,

при этом модель рекомендаций создают при помощи системы обучения модели, которая выполняет:

модуль обновления параметров модели, рассчитанный на последовательное обновление параметров модели, соответствующих признакам с частотами, которые больше первого порогового значения в модели машинного обучения, исходя из показателя кликабельности вектора прежних признаков прежней рекомендованной информации в предварительно заданной модели обучения, при этом каждый из признаков в векторе прежних признаков прежней рекомендованной информации в модели машинного обучения представляет собой предварительно заданные начальные значения параметров модели, соответствующих признакам, а частоту каждого из признаков в модели машинного обучения обновляют при помощи предварительно заданного коэффициента ослабления частот после завершения обновления модели машинного обучения; и

модуль создания модели рекомендаций, рассчитанный на удаление параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению, после завершения обучения модели машинного обучения, и создание модели рекомендаций, исходя из оставшихся параметров модели, при этом оставшиеся параметры модели представляют собой параметры модели, соответствующие признакам с частотами, которые больше первого порогового значения в модели машинного обучения.

11. Сервер рекомендаций, предусматривающий:

один или несколько процессоров и

накопительное устройство, рассчитанное на хранение одной или нескольких программ;

при этом загрузка и запуск одной или нескольких программ на одном или нескольких процессорах приводит к тому, что один или несколько процессоров осуществляют способ рекомендации информации согласно любому из пп. 1-9.

12. Система для обучения модели, предусматривающая кластер серверов обучения и кластер серверов параметров, в которой

кластер серверов параметров рассчитан на хранение модели параметров, соответствующих различным признакам в предварительно заданной модели машинного обучения, при этом каждый из признаков в векторе прежних признаков прежней рекомендованной информации в модели машинного обучения представляет собой предварительно заданные начальные значения параметров модели, соответствующих признакам;

кластер серверов обучения, рассчитанный на последовательное получение актуальных параметров модели, которые соответствуют различным признакам в модели машинного обучения, с кластера серверов параметров, получение соответствующего показателя кликабельности путем обработки вектора прежних признаков из прежней рекомендованной информации, исходя из параметра модели, вычисление коэффициента потерь параметров модели, соответствующих признакам с частотами выше первого порогового значения в модели машинного обучения, и возвращение коэффициента потерь на кластер серверов параметров; и

кластер серверов параметров дополнительно рассчитан на обновление соответствующих параметров модели согласно коэффициенту потерь и передачу обновленных параметров модели обратно на кластер серверов параметров, удаление параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению, после завершения обучения модели машинного обучения, и создание соответствующей модели рекомендаций, исходя из оставшихся параметров модели, при этом частоту каждого из признаков в модели машинного обучения обновляют с использованием предварительно заданного коэффициента ослабления частот после завершения обучения модели машинного обучения.

13. Система по п. 12, в которой

кластер серверов обучения дополнительно рассчитан на задание параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению в модели машинного обучения, в качестве предварительно заданных значений разреженности, и возвращение предварительно заданных значений разреженности на кластер серверов параметров; и

кластер серверов параметров дополнительно рассчитан на изменение параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению в модели машинного обучения, в качестве предварительно заданных значений разреженности, и удаление параметров модели, установленных в качестве предварительно заданных разреженных значений, после завершения обучения модели машинного обучения.

14. Система по п. 12, в которой после завершения обучения модели машинного обучения кластер серверов параметров дополнительно рассчитан на фильтрацию по оставшимся параметрам модели в том случае, когда размер модели машинного обучения достигает ограничения по памяти, при этом параметры модели соответствуют признакам с частотами, которые меньше или равны второму пороговому значению, и создание модели рекомендаций, исходя из оставшихся параметров модели после фильтрации, при этом второе пороговое значение выше первого порогового значения.

15. Система по п. 12, в которой после завершения обучения модели машинного обучения в текущий период времени кластер серверов параметров дополнительно рассчитан на обновление частот различных признаков в модели машинного обучения при помощи предварительно заданного коэффициента ослабления частот, фильтрацию параметров модели, соответствующих признакам с частотами, которые меньше или равны третьему пороговому значению, по оставшимся параметрам модели после удаления параметров модели, соответствующих признакам с частотами, которые меньше или равны первому пороговому значению, и создание модели рекомендаций, исходя из оставшихся параметров модели, полученных после фильтрации в текущем интервале времени.

16. Система по любому из пп. 12-15, дополнительно предусматривающая сервер рекомендаций согласно п. 11, в которой кластер серверов параметров дополнительно рассчитан на публикацию созданной модели рекомендаций на сервере рекомендаций.

17. Машиночитаемое запоминающее устройство, на котором хранят компьютерную программу; при этом загрузка и запуск компьютерной программы при помощи процессора приводит к тому, что сервер выполняет способ рекомендации информации согласно любому из пп. 1-9.



 

Похожие патенты:

Изобретение относится к области компьютерной техники для защиты пользовательских данных, более конкретно, к средствам для обработки данных пользователя, обеспечивающим защиту от несанкционированного доступа к информации, обрабатываемой и хранимой в облачных компьютерных информационно-вычислительных системах.

Изобретение относится к способу и системе для обнаружения аномалий в сенсорных данных, исходящих из компонентов, используемых в промышленных процессах. Способ содержит этапы, на которых:- измеряют и/или отслеживают измерительные данные, соответственно, отслеживающие параметры (4) технологического процесса компонентов, используемых в промышленном процессе (6), посредством измерительных устройств или датчиков (2), и идентифицируют временные кадры одинакового размера в параметрах (4) измерений и/или технологического процесса для временных кадров, в которых компоненты, используемые в промышленном процессе (6), функционируют нормально, причем параметры (4) измерений и/или технологического процесса содержат значения параметров для множества измерительных/сенсорных параметров (41) и/или переменных (42) технологического процесса,- преобразуют значения (4) параметров множества измерительных/сенсорных параметров (41) и/или переменных (42) технологического процесса в наблюдаемые двоичные коды обработки для каждого из идентифицированных временных кадров одинакового размера и назначают двоичные коды обработки последовательности хранящихся состояний цепей Маркова,- формируют многомерную структуру данных, содержащую задаваемое число значений переменных параметров скрытой модели Маркова, при этом переменные параметры модели многомерной структуры данных определяются посредством модуля (8) машинного обучения, применяемого к последовательности хранящихся состояний цепей Маркова с назначенными двоичными кодами (91) обработки, и при этом переменные параметры (811, 812, …, 81x) скрытой модели Маркова многомерной структуры данных варьируются и обучаются посредством обучения частоты (82) нормального состояния возникающих аварийных событий на основе измерительных данных и/или параметров (4) технологического процесса идентифицированных временных кадров одинакового размера,- инициализируют и сохраняют множество значений (83) вероятностного состояния посредством применения обученной многомерной структуры данных со значениями переменных параметров скрытой модели Маркова к преддискретизированным двоичным кодам обработки, имеющим временной кадр одинакового размера, идентичный временному кадру для значений (4) параметров множества измерительных/сенсорных параметров (41) и/или переменных (42) технологического процесса,- определяют логарифмическое пороговое значение количественного показателя аномалий посредством упорядочения логарифмических результирующих значений сохраненных значений (83) вероятностного состояния, и- развертывают упомянутую обученную многомерную структуру данных со значениями переменных параметров скрытой модели Маркова, чтобы отслеживать новые измеренные, соответственно, определенные измерительные данные и/или параметры (4) технологического процесса из промышленного оборудования или заводов (1) с использованием порогового значения количественного показателя аномалий, чтобы обнаруживать аномальные значения данных датчиков, которые могут указывать предстоящий системный сбой, при этом для инициирования при аномальных значениях данных датчиков, логарифмическое результирующее значение для значения (83) вероятностного состояния новых измеренных, соответственно, определенных измерительных данных и/или параметров (4) технологического процесса формируется и сравнивается с сохраненными значениями (83) вероятностного состояния на основе упомянутого логарифмического порогового значения количественного показателя аномалий.

Группа изобретений относится к технологиям обработки данных и, в частности, к кодированию облака точек. Техническим результатом является уменьшение объема данных, необходимых для представления облака данных, с целью его более быстрой передачи или сокращения объема хранилища.

Изобретение направлено на упрощение конструкции устройства для передачи микроволнового излучения от тонкопленочного копланарного микроволнового резонатора к сверхпроводящим кубитам и считывания состояний на чипе при расширении его функциональных возможностей. Предложенное устройство для передачи микроволнового излучения с копланарного резонатора по крайней мере на два сверхпроводящих кубита позволяет не только минимизировать размер квантовой системы на чипе, но и расширяет ее функциональные возможности, поскольку одним и тем же копланарным резонатором можно осуществлять как передачу микроволнового излучения на сверхпроводящие кубиты, так и считывание состояний по крайней мере двух связанных емкостным элементом кубитов.

Изобретение относится к области обработки данных. Технический результат заключается в обеспечении возможности обработки выборочных данных, которые обеспечивали бы преобразование конфигурационных данных, данных аварийной сигнализации и данных о неисправностях, повышая эффективность сохранения выборочных данных и обеспечивая достижение междоменного взаимодействия выборочных данных и обмена ими между разными производителями.

Изобретение относится к биотехнологии. Описан реализуемый с применением компьютера способ предсказания правдоподобия сайтов сплайсинга в пре-мРНК геномных последовательностях.

Изобретение относится к области научно-исследовательских методов определения причин и механизмов разрушения изделий, т.е. соотношения в изломах металлов вязкой и хрупкой составляющей при различных видах нагрузки в широком диапазоне температур.

Группа изобретений относится к медицине, а именно к системе и способу проведения направляемой абляции сердца. Система содержит интерфейс, процессор.

Изобретение относится к области вычислительной, а именно к технике для одноструйной и многоструйной 3D-печати твердотопливного заряда (ТТЗ) смесевым твердым топливом (СТТ) для твердотопливного ракетного двигателя (РДТТ). Техническим результатом является повышение точности печати и безопасности процесса одноструйной и многоструйной 3D-печати твердотопливного заряда (ТТЗ) смесевым твердым топливом (СТТ) для твердотопливного ракетного двигателя (РДТТ).

Изобретение относится к способу использования джозефсоновских инверторов фазы для сдвига сверхпроводящей фазы при смещении в рабочий режим сверхпроводниковых потоковых кубитов. Технический результат заключается в обеспечении смещения сверхпроводящей фазы на π в схемах потоковых кубитов, не требующего использования дополнительных токовых линий или процедуры захвата магнитного потока в сверхпроводящем кольце.

Изобретение относится к вычислительной технике. Технический результат заключается в повышении скорости конвергенции алгоритмов консенсуса, уменьшая при этом количество данных, передаваемых между устройствами.
Наверх