当前位置: 首页 > 知识库问答 >
问题:

在AI平台Google Cloud中访问Jupyter笔记本中的BigQuery数据

卢承弼
2023-03-14

我试图从谷歌云平台上的人工智能平台的Jupyter笔记本中访问存储在BigQuery中的数据。首先,我尝试了以下代码:

from google.cloud import bigquery
from google.oauth2 import service_account
credentials = service_account.Credentials.from_service_account_file(r'\local_path\gcpcred.json')

project_id = 'my-bq'
client = bigquery.Client(credentials= credentials,project=project_id)

身份验证凭据存储在本地计算机上名为gcpcred的json文件中,但这给了我一个错误提示

FileNotFoundError:[Errno 2]没有这样的文件或目录:'\local\u path\gcpcred。json

我想既然我在人工智能平台(在云上)运行这个,我就不必使用这个应用编程接口和身份验证。

所以我简单地写道:

%%bigquery 
SELECT * FROM  `project.dataset.table`  LIMIT 1000

我得到一个错误说

错误:403访问被拒绝:用户无权访问该表

如何访问该表?请帮忙

共有1个答案

缑兴贤
2023-03-14

与jupyter笔记本关联的服务帐户似乎没有足够的权限访问bigquery。您可以在IAM服务帐户部分使用所需的权限对其进行更新。下面的链接将提供进一步的澄清:

在Jupyter笔记本中可视化BigQuery数据

身份验证入门

 类似资料:
  • 我正在使用谷歌可乐人工智能平台来训练我在本地电脑上的Jupyter笔记本上测试的模型。它没有造成任何进口问题。但是在谷歌云的jupyterlab中,它无法导入原型。 我尝试在Google Cloud的SSH终端中测试导入,结果显示没有导入错误。 我尝试卸载并安装google和protobuf,但问题依然存在。 我尝试按照[this][1]问题中的建议创建init.py文件,但没有解决问题。 使用T

  • 我在Ubuntu14.04上的ipython笔记本上成功地使用了pyspark[与python 2.7],为spark创建了一个特殊的配置文件,并通过调用$ipython笔记本--profile spark启动了笔记本。创建spark配置文件的机制在许多网站上都给出了,但我使用了这里给出的一个。 $home/.ipython/profile_spark/startup/00-pyspark-set

  • 因此,我试图从远程pc连接到我的jupyter笔记本,因为我自己的pc没有全局IP,我必须首先连接到本地网络(服务器1)中的另一台pc,然后通过ssh连接到我自己的pc,并在其上运行jupyter(服务器2),所以类似这样: 我的笔记本电脑- 我曾经这样做,当两个服务器Linux这样: 在我的笔记本电脑上: 在服务器1上: 在服务器2上: 但是现在我的服务器2是一台windows pc,我的jup

  • 我通常访问Jupyter笔记本运行在Linux从Mac OS X通过端口转发如下: https://coderwall.com/p/ohk6cg/remote-access-to-ipython-notebooks-via-ssh 有没有可能在Windows10而不是Mac OS上做类似的事情?我猜油灰或WSL提供一个。 https://www.akadia.com/services/ssh_pu

  • 在Anaconda Navigator中,我切换到在tensorflow上运行应用程序,并安装了jupyter 5.6.0。然后我打开一个蟒蛇3笔记本。然后我导入tensorflow、keras和numpy,没有问题。然后,当我尝试导入matplotlib时,笔记本上显示ImportError:没有名为“matplotlib”的模块。 在激活tensorflow后,我尝试在我的anaconda提示

  • 我正在尝试做一些深度学习的工作。为此,我首先在我的Python环境中安装了所有用于深度学习的包。 这就是我所做的。 在Anaconda中,我创建了一个名为的环境,如下所示 然后在其中安装了data science Python包,如Pandas、NumPy等。我还在那里安装了TensorFlow和Keras。下面是该环境中的包列表 您可以看到还安装了。 现在,当我在这个环境中打开Python解释器