当前位置: 首页 > 面试题库 >

如何从pandas数据帧计算jaccard相似度

皮自明
2023-03-14
问题内容

我有一个数据框,如下所示:框的形状是(1510,1399)。列代表产品,行代表用户为给定产品分配的值(0或1)。如何计算jaccard_similarity_score?

我创建了一个占位符数据框,列出了产品与产品

data_ibs = pd.DataFrame(index=data_g.columns,columns=data_g.columns)

我不确定如何通过data_ibs进行迭代以计算相似性。

for i in range(0,len(data_ibs.columns)) :
    # Loop through the columns for each column
    for j in range(0,len(data_ibs.columns)) :
.........

问题答案:

简短且向量化(快速)的答案:

从scikit的成对距离使用“汉明”学习:

from sklearn.metrics.pairwise import pairwise_distances
jac_sim = 1 - pairwise_distances(df.T, metric = "hamming")
# optionally convert it to a DataFrame
jac_sim = pd.DataFrame(jac_sim, index=df.columns, columns=df.columns)

说明:

假设这是您的数据集:

import pandas as pd
import numpy as np
np.random.seed(0)
df = pd.DataFrame(np.random.binomial(1, 0.5, size=(100, 5)), columns=list('ABCDE'))
print(df.head())

   A  B  C  D  E
0  1  1  1  1  0
1  1  0  1  1  0
2  1  1  1  1  0
3  0  0  1  1  1
4  1  1  0  1  0

使用sklearn的jaccard_similarity_score,A列和B列之间的相似度为:

from sklearn.metrics import jaccard_similarity_score
print(jaccard_similarity_score(df['A'], df['B']))
0.43

这是在总行数100中具有相同值的行数。

据我所知,没有jaccard_similarity_score的成对版本,但有距离的成对版本。

但是,SciPy定义Jaccard距离如下:

给定两个向量u和v,Jaccard距离是那些元素u [i]和v [i]在其中至少一个为非零的地方不一致的比例。

因此,它排除了两列均为0的行。jaccard_similarity_score没有。另一方面,汉明距离符合相似性定义:

这些向量元素在两个不同的n个向量u和v之间的比例。

因此,如果要计算jaccard_similarity_score,则可以使用1-汉明:

from sklearn.metrics.pairwise import pairwise_distances
print(1 - pairwise_distances(df.T, metric = "hamming"))

array([[ 1.  ,  0.43,  0.61,  0.55,  0.46],
       [ 0.43,  1.  ,  0.52,  0.56,  0.49],
       [ 0.61,  0.52,  1.  ,  0.48,  0.53],
       [ 0.55,  0.56,  0.48,  1.  ,  0.49],
       [ 0.46,  0.49,  0.53,  0.49,  1.  ]])

在DataFrame格式中:

jac_sim = 1 - pairwise_distances(df.T, metric = "hamming")
jac_sim = pd.DataFrame(jac_sim, index=df.columns, columns=df.columns)
# jac_sim = np.triu(jac_sim) to set the lower diagonal to zero
# jac_sim = np.tril(jac_sim) to set the upper diagonal to zero

      A     B     C     D     E
A  1.00  0.43  0.61  0.55  0.46
B  0.43  1.00  0.52  0.56  0.49
C  0.61  0.52  1.00  0.48  0.53
D  0.55  0.56  0.48  1.00  0.49
E  0.46  0.49  0.53  0.49  1.00

您可以通过遍历列的组合来执行相同的操作,但是会慢得多。

import itertools
sim_df = pd.DataFrame(np.ones((5, 5)), index=df.columns, columns=df.columns)
for col_pair in itertools.combinations(df.columns, 2):
    sim_df.loc[col_pair] = sim_df.loc[tuple(reversed(col_pair))] = jaccard_similarity_score(df[col_pair[0]], df[col_pair[1]])
print(sim_df)
      A     B     C     D     E
A  1.00  0.43  0.61  0.55  0.46
B  0.43  1.00  0.52  0.56  0.49
C  0.61  0.52  1.00  0.48  0.53
D  0.55  0.56  0.48  1.00  0.49
E  0.46  0.49  0.53  0.49  1.00


 类似资料:
  • 我想在数据的每一列中找到的数量,这样,如果某一列的少于某个阈值,我就可以删除该列。我看了一下,但没有找到任何功能。对我来说太慢了,因为大多数值都是不同的,而且我只对计数感兴趣。

  • 对熊猫来说显然是新鲜事物。如何简单地计算数据帧中的记录数。 我本以为像这样简单的东西就能做到,但我似乎甚至在搜索中都找不到答案...可能是因为它太简单了。 上面的代码实际上只是打印整个df

  • 我有一个PySpark数据帧,df1,看起来像: 我想得到两个数据帧的余弦相似性。并有类似的东西 我有一个python函数,它接收数字/数字数组,如下所示: 如何使用udf在我的数据帧中创建余弦_sim列?可以传递几列而不是一列给udf余弦_sim函数吗?

  • 现在,每次运行脚本时,我都会导入一个相当大的作为数据帧。有没有一个好的解决方案可以让数据帧在运行之间不断可用,这样我就不用花那么多时间等待脚本运行了?

  • 我想编写一个具有重分区的大型数据帧,所以我想计算源数据帧的重分区数。 数据帧/default_blocksize的大小 所以请告诉我如何在spark scala中计算数据帧的大小 提前谢谢。

  • 问题内容: 如何找到向量之间的余弦相似度? 我需要找到相似性来衡量两行文本之间的相关性。 例如,我有两个句子: 用户界面系统 用户界面机 …及其在tF-idf之后的向量,然后使用LSI进行标准化,例如 和。 如何测量这些向量之间的相似性? 问题答案: 我最近在大学的信息检索部门做了一些tf-idf的工作。我使用了这种余弦相似度方法,该方法使用Jama:Java Matrix Package 。 有