指点成金-最美分享吧

登录

Google Drive云端硬盘在中国大陆能正常使用吗?

佚名 举报

篇首语:本文由小编为大家整理,主要介绍了Google Drive云端硬盘在中国大陆能正常使用吗?相关的知识,希望对你有一定的参考价值。

不能正常使用。

由于Googledrive和GoogleDocs的整合,以及GoogleDocs过去被中国屏蔽,中国用户将很难访问Googledrive。要正常使用谷歌硬盘云硬盘,需要使用加速器切换到美国节点正常使用。

切换节点的方法如下:

1、可以百度搜索一款软件,下载安装即可。

2、在安装和操作之后,注册已登录并选择U.S.节点连接。(新用户开始是免费的)

3、此时,可以打开Googledrive和其他与Google相关的服务。

扩展资料:

GoogleDrive的优点:

1、从任意地点访问。

简而言之,可以使用任何Internet设备访问文件(PC、手机、平板电脑等)。优点是可以随时随地查看和管理上传到谷歌硬盘的数据。例如,带来的业务文档、公司章程和任务要求。如果忘记了,可以随时访问并编辑。

2、安全存储文件。

将个人或企业数据上传到云硬盘。对数据传输过程进行加密以保证安全性。当设备因意外故障意外格式化重要数据,如客户信息、联系人信息、公司机密文件等时,如果文件以前已同步到Google drive,只要登陆到该帐户,就可以将丢失的文件从Google drive返回到设备,从而进行安全备份数据的作用。

3、共享与协作。

用户间上传文件的共享与协同管理。例如,公司文件需要全体员工的共同努力,共同编辑和完善文件。然后,通过同步到Googledrive并设置授权,可以指定要由团队共享的文件,以便授权人员可以参与文件的编辑和改进,还可以在网上留下评论和讨论。

参考资料来源:百度百科-Google Drive

参考技术A

不能正常使用。

由于Google Drive和Google Docs进行了整合,而Google Docs早先已经被中国屏蔽了,因此中国用户访问Google Drive会出现一定困难。

想要正常使用Google Drive云端硬盘就需要用加速器来切换至美国节点才能正常使用。

切换节点的方法如下:

1、可以到百度搜索一款代/理/工/具,下载安装即可。

2、安装运行后,注册登陆选择美国节点连接。(新用户开始都是免费使用的)


3、这个时候你就可以打开Google Drive以及谷歌其他相关服务了。

扩展资料:

Google Drive的优点:

1、从任意地点访问。

简单讲,其实是可用任意上网设备来访问文件(用PC、手机、平板等)。这样好处是,你可以随时随地查看和管理你上传到Google Drive的数据资料。比如你带着的商业文件,公司章程,任务要求这类,如果忘记了,随时可以访问,并且编辑。

2、安全存储文件。

把个人或者企业的资料上传到云端硬盘,数据传输过程经过加密算法,保证安全不会泄露。

当你的设备因为意外故障,不小心格式了客户资料,联系人信息,公司机密文件等等重要数据的时候,如果你的文件已经在之前同步到Google Drive上,那么只要登录账号,就能够从Google Drive里返回丢失的文件到设备,从而起到了数据的安全备份作用。

3、共享与协作。

对上传文件进行用户间共享与协作管理。比如公司文档需要全体人员的群策群力,来对文件进行共同地编辑和改进。那么通过同步到Google Drive,并设置授权,就可以指定该文件成为团队的共享资料,从而让经过授权的人员都可以参与文件的编辑和改进,并且还可以在线留言讨论。

参考资料来源:百度百科-Google Drive



参考技术B 目前是不正常访问,需要通过代理,而且速度也会不尽人意,达不到网盘的储存效果。
相对于网盘基础的储存功能来讲,目前同步网盘是发展的趋势和潮流,国外的Dropbox,国内也有坚果云,可以随时随地自动保存文件,实时同步到各个客户端,不怕文件丢失,电脑储存的文件立刻就出现在手机app端。
参考技术C

可能会出现无法登录的问题

解决方法:

1.可以到百度搜索一款代/理/工/具,下载安装即可。

2.安装运行后,登陆选择美国节点连接。

3.连接成功后,可以打开百度查下本地IP是不是在美国!

4.这个时候你就可以打开Google drive了以及谷歌其他相关服务了,Gmail也能快速打开了!

关于Google drive 

中文名为“Google 云端硬盘”。是谷歌公司推出的一项在线云存储服务,通过这项服务,用户可以获得15GB的免费存储空间。

支持各种类型的文件,用户可以通过Google Drive进行创建、分享、协作各种类型的文件,包括视频、照片、文档、PDF等。

用户可以与任何人共享文件或文件夹,并选择分享对象是否可以对用户的文件进行查看、编辑或发表评论。同时还整合了Google的多项服务,例如Gmail、Google+等。

参考技术D

不能,不过你可以重新设置。

1、首先用记事本打开C:\windows\system32\drives\etc目录下的hosts文件

2、然后在该文件最后添加下列两行内容   drive.google.com      74.125.71.94 drive.google.com

3、在保存之后,再重新打开浏览器。输入https://drive.google.com 就可以正常访问了。

Google Colab 无法访问云端硬盘内容

【中文标题】Google Colab 无法访问云端硬盘内容【英文标题】:Google Colab can"t access drive content 【发布时间】:2019-06-13 14:39:32 【问题描述】:

即使我将我的 Google Drive(以及其中的数据集)定义为 google colab,但是当我运行我的代码时,我给出了这个错误:FileNotFoundError: [Errno 2] No such file or directory: "content/drive/My Drive /....

我已经在 google colab 中定义了 google drive,我可以通过 google colab 访问它,但是当我运行我的代码时,我给出了这个错误

from keras.models import Sequentialfrom keras.layers import Convolution2Dfrom keras.layers import MaxPooling2Dfrom keras.layers import Flattenfrom keras.layers import Densemodel=Sequential()model.add(Convolution2D(32,3,3,input_shape=(64,64,3),activation="relu"))model.add(MaxPooling2D(pool_size=(2,2)))model.add(Convolution2D(32,3,3,activation="relu"))model.add(MaxPooling2D(pool_size=(2,2)))model.add(Flatten())model.add(Dense(output_dim=128,activation="relu"))model.add(Dense(output_dim=1,activation="sigmoid"))model.compile(optimizer="adam",loss="binary_crossentropy",metrics=["accuracy"])from keras.preprocessing.image import ImageDataGeneratortrain_datagen=ImageDataGenerator(    rescale=1./255,    shear_range=0.2,    zoom_range=0.2,    horizontal_flip=True)test_datagen=ImageDataGenerator(rescale=1./255)training_set=train_datagen.flow_from_directory(    directory="content/drive/My Drive/Convolutional_Neural_Networks/dataset/training_set",    target_size=(64,64),    batch_size=32,    class_mode="binary")test_set=test_datagen.flow_from_directory(    directory="content/drive/My Drive/Convolutional_Neural_Networks/dataset/test_set",    target_size=(64,64),    batch_size=32,    class_mode="binary")#trainmodel.fit_generator(    training_set,    samples_per_epoch=8000,    nb_epoch=2,    validation_data=test_set,    nb_val_samples=1000)import numpy as npfrom keras.preprocessing import imagetest_image=image.load_img("sunn.jpg",target_size=(64,64))test_image=image.img_to_array(test_image)test_image=np.expand_dims(test_image,axis=0)result=model.predict(test_image)training_set.class_indicesif result[0][0] >= 0.5:    prediction="dog"else:    prediction="cat"print(prediction)

【问题讨论】:

【参考方案1】:

挂载后,进入数据集文件夹。

cd content/drive/My Drive/Convolutional_Neural_Networks/dataset/

不要使用 !。然后将你的目录设置为./training_set

【讨论】:

您能解释一下为什么会这样吗?我想 !为了执行 cd 之类的 bash 命令是必要的? 我遇到了同样的问题,所以尝试删除 !这有效。如果你注意到了,你只能在一个单元格中放上 bash 命令。我相信这就是 colab 的 jupyter notebook 的工作原理。 是的,您可以在每个单元格中使用一个 bash 命令,而无需使用 !。【参考方案2】:

我认为您在 /content/drive... 路径中缺少前导 /

通常通过以下方式挂载您的云端硬盘文件

from google.colab import drivedrive.mount("/content/drive")

https://colab.research.google.com/notebooks/io.ipynb#scrollTo=u22w3BFiOveA

【讨论】:

【参考方案3】:

我一直在尝试,对于那些好奇的人来说,我无法将目录中的流与谷歌驱动器内的文件夹一起使用。协作文件环境不读取路径并给出“文件夹不存在”错误。我一直在尝试解决问题并搜索堆栈,类似的问题已发布在这里 Google collaborative 和这里 Deep learnin on Google Colab: loading large image dataset is very long, how to accelerate the process? ,没有有效的解决方案,出于某种原因,许多人对提出问题的人投了反对票。

我发现在 google colab 中读取 20k 张图片的唯一解决方案是上传它们然后处理它们,这样做浪费了两个可悲的小时。这是有道理的,谷歌用 ids 识别驱动器内的东西,从目录流要求它同时识别数据集和具有文件夹绝对路径的类,与谷歌驱动器识别方法不兼容。替代方案可能是使用谷歌云环境而不是我想并付费。我们免费获得了很多。这是我新手对情况的理解,如有错误请指正。

edit1:我能够在 google collab 上使用目录中的流,google 确实也使用路径识别事物,问题是如果你使用 os.getcwd(),它不能正常工作,如果你使用它会告诉您当前工作目录是“/content”,而实际上是“/content/drive/My Drive/foldersinsideyourdrive/...../folderthathasyourcollabnotebook/。如果您在 traingenerator 中更改路径,使其包含这个设置,并忽略操作系统,它可以工作。但是,即使使用目录中的流,内存也有问题,无论如何都无法训练我的 cnn,但可能只是发生在我身上。

【讨论】:

【参考方案4】:

从 google.colab 导入驱动器drive.mount("/content/drive")

使用上面的代码,您可以在 colab 中加载您的驱动器,何时加载图像使用:

directory="drive/My Drive/Convolutional_Neural_Networks/dataset/test_set",

不是这个:

directory="content/drive/My Drive/Convolutional_Neural_Networks/dataset/test_set",

对于 keras imagedatagenerator 数据集 strcut:

【讨论】:

【参考方案5】:

所以,我从 Colab 的默认命令开始

from google.colab import drivedrive.mount("/gdrive", force_remount=True)

我所做的主要改变就在这里

img_width, img_height = 64, 64train_data_dir = "/gdrive/My Drive/Colab Notebooks/dataset/training_set"validation_data_dir = "/gdrive/My Drive/Colab Notebooks/dataset/test_set"from tensorflow.keras.preprocessing.image import ImageDataGeneratortrain_datagen = ImageDataGenerator(    rescale=1./255,    shear_range=0.2,    zoom_range=0.2,    horizontal_flip=True)test_datagen = ImageDataGenerator(rescale=1./255)train_generator = train_datagen.flow_from_directory( train_data_dir, target_size=(64, 64), batch_size=32, class_mode="binary")validation_generator = test_datagen.flow_from_directory( validation_data_dir, target_size=(64, 64), batch_size=32, class_mode="binary")classifier.fit_generator( train_generator, steps_per_epoch=8000, # Number of images in train set epochs=25, validation_data=validation_generator, validation_steps=2000)

这对我有用,我希望这对某人有所帮助。附:忽略缩进。

【讨论】:

【参考方案6】:

由于某种原因,您必须 %cd 进入您的 google 驱动器文件夹,然后执行您的代码才能访问驱动器中的文件或在那里写入文件。

首先安装你的谷歌驱动器:

from google.colab import drivedrive.mount("/gdrive", force_remount=True)

然后 cd 进入你的谷歌驱动器,然后运行你的代码:

%cd /content/drive/My Drive/directory="./Convolutional_Neural_Networks/dataset/training_set"

【讨论】:

【参考方案7】:

尝试删除“内容”,经过 1 小时的故障排除后,它对我有用

cd drive/My Drive/dissertation

【讨论】:

以上是关于Google Drive云端硬盘在中国大陆能正常使用吗?的主要内容,如果未能解决你的问题,请参考以下文章