Hexo搭建个人博客
Hexo 搭建个人博客
Hexo 是一个快速、简洁且高效的博客框架。Hexo 使用 Markdown(或其他渲染引擎)解析文章,在几秒内,即可利用靓丽的主题生成静态网页。
0. 安装前提
Node.js
Git
创建 GitHub 仓库
Hexo 建站环境配置详见:Hexo 建站环境配置
1. Hexo 建站
在配置完环境之后,就可以正式安装 Hexo 了。安装步骤还是比较简单的,主要在 Git Bash 中通过命令行安装。
Hexo 建站教程详见:Hexo 建站教程
2. 个性化域名(可选)
部署完博客之后,会发现我们的域名是 https://xxxxxx.github.io,很明显这个域名不够高端大气上档次,因此我们可以在 阿里云、腾讯云 等域名供应商那里注册自己的域名,一年大概几十块的费用,当然你也可以选择不更换域名。
GitHub Pages 个性化域名配置详见:GitHub Pages 个性化域名配置
3. 双线部署到 GitHub 和 Coding
本博客已迁移到阿里云 ECS, 部分功能可能失效,请注意!
由于 GitHub 的服务器在国外,所以访问速度不怎么样,因 ...
LeetCode 解题报告
LeetCode 解题报告
var chartDom = document.getElementById('main');
var myChart = echarts.init(chartDom);var option;
option && myChart.setOption(option);
// 基于准备好的dom,初始化echarts实例
var myChart = echarts.init(document.getElementById('echarts8813'));
// 指定图表的配置项和数据
var option =
option = {
tooltip: {
trigger: 'item'
},
legend: {
top: '5 % ',
left: 'center'
},
series: [
{
name: 'LeetCode 解题报告', ...
算法专题汇总
算法专题汇总
常用算法模板——常见算法
常用算法模板——数据结构
常用算法模板——数学知识
常用算法模板——搜索与图论
背包九讲学习笔记
排序算法总结
二分查找学习笔记
快速幂算法详解
由数据范围反推算法复杂度以及算法内容
【论文阅读】STAN:Spatio-Temporal Attention Network for Next Location Recommendation
【论文阅读】STAN: Spatio-Temporal Attention Network for Next Location Recommendation
前言
仍然是 POI 推荐的一篇论文。
2021 年 WWW 上的一篇论文:STAN: Spatio-Temporal Attention Network for Next Location Recommendation
Overview
现有问题:
没有充分考虑非相邻位置和非相邻访问之间的相关性;
采用空间离散化分层网格对空间距离不敏感;
忽略了 personalized item frequency (PIF)。
对于第一个问题,论文给出了这样一个例子:下图中,0,1,2 分别代表家,工作单位,商场;3,4,5,6 代表餐厅。在这个例子中,用户实际上已经对非相邻的餐厅进行了两次非连续的访问。也就是所谓的非相邻位置和非相邻访问。
这篇论文利用,通过双层 Attention,首先聚合了相关的位置,对不同的访问赋予不同的权重,然后通过第二个 Attention 考虑 PIF 从候选位置中召回。
主要贡献:
结合时空相关性 ...
Time2Vec 的理解与简单实现
Time2Vec 的理解与简单实现
前言
Time2Vec 从其名字就可以看出其功能,将时间进行 Embedding,并且能够应用于不同的模型。
2019 年的一篇论文:Time2Vec: Learning a Vector Representation of Time
Time2Vec
Time2Vec 的设计主要基于以下几个方面:
捕获周期性和非周期性模式
对时间缩放不变
易于与其他模型融合
Time2Vec 的公式并不复杂:
t2v(τ)[i]={ωiτ+φi,if i=0.F(ωiτ+φi),if 1≤i≤k.\mathbf{t2v}(\tau)[i]=\begin{cases}\omega_i\tau+\varphi_i, &\text{if }i=0. \\ \mathcal{F}(\omega_i\tau+\varphi_i), &\text{if }1\leq i\leq k. \end{cases}
t2v(τ)[i]={ωiτ+φi,F(ωiτ+φi),if i=0.if 1≤i≤k.
其中kkk为 time2vec 的维度,F\ma ...
【论文阅读】GETNext:Trajectory Flow Map Enhanced Transformer for Next POI Recommendation
【论文阅读】GETNext: Trajectory Flow Map Enhanced Transformer for Next POI Recommendation
前言
Next POI 推荐是根据用户的当前状态和历史信息,预测用户近期的动向,为用户和服务提供商带来巨大的价值。
2022 年 SIGIR 的一篇论文:GETNext: Trajectory Flow Map Enhanced Transformer for Next POI Recommendation
问题描述
给定大小为MMM的用户集合U={u1,u2,⋯ ,uM}U=\{u_1, u_2, \cdots,u_M\}U={u1,u2,⋯,uM}和大小为NNN的 POI 集合P={p1,p2,⋯ ,pN}P=\{p_1, p_2, \cdots, p_N \}P={p1,p2,⋯,pN}。其中p=⟨latitude,longitude,category,frequency⟩p=\langle latitude,longitude,category,frequency \ranglep=⟨latitude ...
聊一聊损失函数
聊一聊损失函数
前言
损失函数,具体来说就是计算神经网络每次迭代的前向计算结果与真实值的差距,从而指导下一步的训练向正确的方向进行。下面主要介绍一些常见的损失函数:均方差损失函数和交叉熵损失函数。
均方差损失函数
均方误差损失(Mean Square Error,MSE)又称为二次损失、L2 损失,常用于回归预测任务中。均方误差函数通过计算预测值和实际值之间距离(即误差)的平方来衡量模型优劣。即预测值和真实值越接近,两者的均方差就越小。
均方差函数常用于线性回归(linear regrWession),即函数拟合(function fitting)。公式如下:
loss=12(a−y)2(单样本)loss = {1 \over 2}(a-y)^2 \tag{单样本}
loss=21(a−y)2(单样本)
J=12m∑i=1m(ai−yi)2(多样本)J=\frac{1}{2m} \sum_{i=1}^m (a_i-y_i)^2 \tag{多样本}
J=2m1i=1∑m(ai−yi)2(多样本)
均方差函数比较简单,也较为常见,这里就不多说了。
交叉熵损失函数
交叉熵(Cros ...
【论文阅读】Geography-Aware Sequential Location Recommendation
【论文阅读】Geography-Aware Sequential Location Recommendation
前言
顺序位置推荐在许多应用中发挥着重要作用,如移动性预测、路线规划和基于位置的广告。它不但可以提高用户体验,增加用户粘性,还能为商家带来潜在的商业利益,已成为推荐系统中最重要的研究方向之一。
一篇 2020 年 KDD 的论文:Geography-Aware Sequential Location Recommendation
问题描述
(next POI recommendation)给定大小为MMM的用户集合U={u1,u2,⋯ ,uM}U=\{u_1, u_2, \cdots,u_M\}U={u1,u2,⋯,uM}和大小为NNN的 POI 集合V={v1,v2,⋯ ,vN}V=\{v_1, v_2, \cdots, v_N \}V={v1,v2,⋯,vN}。
对于当前用户uuu,他的行动轨迹为Su=r1u→r2u→⋯→rnuS^u = r_1^u \rightarrow r_2^u \rightarrow \cdots \rightarrow r_n^u ...
简单理解图神经网络 GNN
简单理解图神经网络 GNN
前言
图神经网络(Graph Neural Networks,GNN)最早由The Graph Neural Network Model(Gori et al., 2005)提出。近年来,深度学习领域关于图神经网络的研究热情日益高涨,图神经网络已经成为各大深度学习顶会的研究热点。
本文主要介绍图神经网络的基本原理,通过简单的方式理解 GNN, GCN 是如何工作的,尽量把原理说清楚。
Overview
总的来说,GNN 就是做了这么一件事情:利用图的节点信息去生成节点(图)的 Embedding 表示。
Graph Neural Network(GNN)
既然是 Graph,那么我们的数据就是一张图:
其中hA,hB,hC,hD,hEh_A, h_B, h_C, h_D, h_EhA,hB,hC,hD,hE分别是节点A,B,C,D,EA, B, C, D, EA,B,C,D,E的所包含的信息,你也可以简单理解为是这个节点的特征。
GNN 可分为三步:1. 聚合;2. 更新;3. 循环。
首先是聚合。通过观察上面的图我们可以发现,节点AAA有三 ...
【论文阅读】DynaPosGNN:Dynamic-Positional GNN for Next POI Recommendation
【论文阅读】DynaPosGNN: Dynamic-Positional GNN for Next POI Recommendation
前言
随着基于位置的社交网络(Location-Based Social Network)的快速发展, 海量的签到数据被用于挖掘用户的行为模式以实现兴趣点(Point-of-Interest) 推荐。 兴趣点推荐不但可以提高用户体验,增加用户粘性,还能为商家带来潜在的商业利益,已成为推荐系统中最重要的研究方向之一。
2021 年发表在 ICDM 上的一篇论文:DynaPosGNN: Dynamic-Positional GNN for Next POI Recommendation
问题描述
(next POI recommendation)给定大小为MMM的用户集合U={u1,u2,⋯ ,uM}U=\{u_1, u_2, \cdots,u_M\}U={u1,u2,⋯,uM}和大小为NNN的 POI 集合V={v1,v2,⋯ ,vN}V=\{v_1, v_2, \cdots, v_N \}V={v1,v2,⋯,vN}。
对于每个用户umu ...