当前位置: 首页 > 知识库问答 >
问题:

在连续搜索后获得谷歌“我不是机器人”选项[重复]

柯宜年
2023-03-14
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import TimeoutException
import psycopg2
import os
import datetime

final_results=[]
positions=[]

option = webdriver.ChromeOptions()
option.add_argument("—-incognito")
browser = webdriver.Chrome(executable_path='/users/user_123/downloads/chrome_driver/chromedriver', chrome_options=option)

#def db_connect():
try:
    #Database connection string
     DSN = "dbname='postgres' user='postgres' host='localhost' password='postgres' port='5432'"
     #DWH table to which data is ported
     TABLE_NAME = 'staging.search_url'
     #Connecting DB..
     conn = psycopg2.connect(DSN)
     print("Database connected...")
     #conn.set_client_encoding('utf-8')
     cur = conn.cursor()
     cur.execute("SET datestyle='German'")
except (Exception, psycopg2.Error) as error:
     print('database connection failed')
     quit()

def get_products(url):
    browser.get(url)
    names = browser.find_elements_by_xpath("//span[@class='pymv4e']")
    upd_product_name_list=list(filter(None, names))
    product_name = [x.text for x in upd_product_name_list]
    product = [x for x in product_name if len(x.strip()) > 2]
    upd_product_name_list.clear()
    product_name.clear()
    return product

##################################
search_url_fetch="""select url_to_be_searched from staging.search_url where id in(65,66,67,68)"""
psql_cursor = conn.cursor()
psql_cursor.execute(search_url_fetch)
serach_url_list = psql_cursor.fetchall()
print('Fetched DB values')
##################################

for row in serach_url_list:
    passed_url=''
    passed_url=str(row)
    passed_url=passed_url.replace(',)','')
    passed_url=passed_url.replace('(','')
    new_url=''
    new_url=passed_url[1:len(passed_url)-1]
    print('Passed URL :'+new_url)
    print("\n")

    filtered=[]
    filtered.clear()
    filtered = get_products(new_url)
    if not filtered:
        new_url=new_url+'+kaufen'
        get_products(new_url)
        print('Modified URL :'+new_url)

    if filtered:
         print(filtered)
         positions.clear()
         for x in range(1, len(filtered)+1):
           positions.append(str(x))
         gobal_position=0
         gobal_position=len(positions)
         print('global postion first: '+str(gobal_position))
         print("\n")

         company_name_list = browser.find_elements_by_xpath("//div[@class='LbUacb']")
         # use list comprehension to get the actual repo titles and not the selenium objects.
         company = []
         company.clear()
         company = [x.text for x in company_name_list]
         # print out all the titles.
         print('Company Name:')
         print(company, '\n')


         price_list = browser.find_elements_by_xpath("//div[@class='e10twf T4OwTb']")
         # use list comprehension to get the actual repo titles and not the selenium objects.
         price = []
         price.clear()
         price = [x.text for x in price_list]
         print('Price:')
         print(price)
         print("\n")

         urls=[]
         urls.clear()
         find_href = browser.find_elements_by_xpath("//a[@class='plantl pla-unit-single-clickable-target clickable-card']")
         for my_href in find_href:
             url_list=my_href.get_attribute("href")
             urls.append(url_list)
             #print(my_href.get_attribute("href"))
         print('URLS:')
         print(urls)
         print("\n")

         print('Final Result: ')
         result = zip(positions,filtered, urls, company,price)
         final_results.clear()
         final_results.append(tuple(result))
         print(final_results)
         print("\n")


         print('global postion end :'+str(gobal_position))
         i=0
         #try:
         for d in final_results:
                print( d[i])
                while i <= gobal_position:
                  cur.execute("""INSERT into staging.pla_crawler_results(position, product_name, url,company,price) VALUES (%s, %s, %s,%s, %s)""", d[i])
                  print('Inserted succesfully')
                  conn.commit()
                  i=i+1
         #except (Exception, psycopg2.Error) as error:
             #pass

共有1个答案

许昆
2023-03-14

您有两种选择:

1)付费访问谷歌的搜索API。这是避免被禁止的专业方法。

2)将脚本随机化,让它看起来更人性化。这种方法是与谷歌的军备竞赛;你可能会让你的脚本正常工作,但它会周期性地中断。

 类似资料:
  • 那么有没有办法避免这种“我不是机器人”的验证码,并且得到一致的结果呢?或者我需要在这段代码中修改的任何东西使其更优化? 同时打开50个或100个chrome驱动程序中的选项卡,并在加载的选项卡中搜索结果,这也是可能的吗?

  • 在我经常访问的一些网站上,我会得到一个谷歌复选框,上面写着我不是机器人。在某些场合,它要求我选择河流或树木的图片作为某些场合的附加步骤。有没有可能绕过这一步。我是一个试图访问网站的人,而不是一个计算机程序。我该怎么做才能说服谷歌呢?

  • 我在看一个博客说,如果一个网站使用谷歌recaptcha“我不是一个机器人”,那么它不可能刮掉那些网站,即使用像Selenium这样的工具。但是当我开始阅读google recaptcha的实际工作原理时,我发现它可以跟踪鼠标的移动

  • 我在一个博客上说,如果一个网站使用谷歌recaptcha“我不是机器人”,那么即使用Selenium这样的工具也不可能刮那些网站。但是当我开始阅读google recaptcha的实际工作原理时,我了解到它可以跟踪鼠标的移动

  • 我正在通过manning阅读Solr in Action,对提交和各种搜索器升温选项几乎没有问题。 属性告诉solr根据指定的时间间隔(maxTime)、doc Count(maxDocs)提交要写入磁盘的文档。 问题1:-maxTime和maxDocs是否可以一起提供,或者它们是相互排斥的 自动提交有一个名为openNewSearcher的子文件。 书中说openNewSearcher如果在每次

  • 我想知道是否有可能从非谷歌App Engine服务器上使用API搜索存储在谷歌云存储中的文件。