from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import TimeoutException
import psycopg2
import os
import datetime
final_results=[]
positions=[]
option = webdriver.ChromeOptions()
option.add_argument("—-incognito")
browser = webdriver.Chrome(executable_path='/users/user_123/downloads/chrome_driver/chromedriver', chrome_options=option)
#def db_connect():
try:
#Database connection string
DSN = "dbname='postgres' user='postgres' host='localhost' password='postgres' port='5432'"
#DWH table to which data is ported
TABLE_NAME = 'staging.search_url'
#Connecting DB..
conn = psycopg2.connect(DSN)
print("Database connected...")
#conn.set_client_encoding('utf-8')
cur = conn.cursor()
cur.execute("SET datestyle='German'")
except (Exception, psycopg2.Error) as error:
print('database connection failed')
quit()
def get_products(url):
browser.get(url)
names = browser.find_elements_by_xpath("//span[@class='pymv4e']")
upd_product_name_list=list(filter(None, names))
product_name = [x.text for x in upd_product_name_list]
product = [x for x in product_name if len(x.strip()) > 2]
upd_product_name_list.clear()
product_name.clear()
return product
##################################
search_url_fetch="""select url_to_be_searched from staging.search_url where id in(65,66,67,68)"""
psql_cursor = conn.cursor()
psql_cursor.execute(search_url_fetch)
serach_url_list = psql_cursor.fetchall()
print('Fetched DB values')
##################################
for row in serach_url_list:
passed_url=''
passed_url=str(row)
passed_url=passed_url.replace(',)','')
passed_url=passed_url.replace('(','')
new_url=''
new_url=passed_url[1:len(passed_url)-1]
print('Passed URL :'+new_url)
print("\n")
filtered=[]
filtered.clear()
filtered = get_products(new_url)
if not filtered:
new_url=new_url+'+kaufen'
get_products(new_url)
print('Modified URL :'+new_url)
if filtered:
print(filtered)
positions.clear()
for x in range(1, len(filtered)+1):
positions.append(str(x))
gobal_position=0
gobal_position=len(positions)
print('global postion first: '+str(gobal_position))
print("\n")
company_name_list = browser.find_elements_by_xpath("//div[@class='LbUacb']")
# use list comprehension to get the actual repo titles and not the selenium objects.
company = []
company.clear()
company = [x.text for x in company_name_list]
# print out all the titles.
print('Company Name:')
print(company, '\n')
price_list = browser.find_elements_by_xpath("//div[@class='e10twf T4OwTb']")
# use list comprehension to get the actual repo titles and not the selenium objects.
price = []
price.clear()
price = [x.text for x in price_list]
print('Price:')
print(price)
print("\n")
urls=[]
urls.clear()
find_href = browser.find_elements_by_xpath("//a[@class='plantl pla-unit-single-clickable-target clickable-card']")
for my_href in find_href:
url_list=my_href.get_attribute("href")
urls.append(url_list)
#print(my_href.get_attribute("href"))
print('URLS:')
print(urls)
print("\n")
print('Final Result: ')
result = zip(positions,filtered, urls, company,price)
final_results.clear()
final_results.append(tuple(result))
print(final_results)
print("\n")
print('global postion end :'+str(gobal_position))
i=0
#try:
for d in final_results:
print( d[i])
while i <= gobal_position:
cur.execute("""INSERT into staging.pla_crawler_results(position, product_name, url,company,price) VALUES (%s, %s, %s,%s, %s)""", d[i])
print('Inserted succesfully')
conn.commit()
i=i+1
#except (Exception, psycopg2.Error) as error:
#pass
您有两种选择:
1)付费访问谷歌的搜索API。这是避免被禁止的专业方法。
2)将脚本随机化,让它看起来更人性化。这种方法是与谷歌的军备竞赛;你可能会让你的脚本正常工作,但它会周期性地中断。
那么有没有办法避免这种“我不是机器人”的验证码,并且得到一致的结果呢?或者我需要在这段代码中修改的任何东西使其更优化? 同时打开50个或100个chrome驱动程序中的选项卡,并在加载的选项卡中搜索结果,这也是可能的吗?
在我经常访问的一些网站上,我会得到一个谷歌复选框,上面写着我不是机器人。在某些场合,它要求我选择河流或树木的图片作为某些场合的附加步骤。有没有可能绕过这一步。我是一个试图访问网站的人,而不是一个计算机程序。我该怎么做才能说服谷歌呢?
我在看一个博客说,如果一个网站使用谷歌recaptcha“我不是一个机器人”,那么它不可能刮掉那些网站,即使用像Selenium这样的工具。但是当我开始阅读google recaptcha的实际工作原理时,我发现它可以跟踪鼠标的移动
我在一个博客上说,如果一个网站使用谷歌recaptcha“我不是机器人”,那么即使用Selenium这样的工具也不可能刮那些网站。但是当我开始阅读google recaptcha的实际工作原理时,我了解到它可以跟踪鼠标的移动
我正在通过manning阅读Solr in Action,对提交和各种搜索器升温选项几乎没有问题。 属性告诉solr根据指定的时间间隔(maxTime)、doc Count(maxDocs)提交要写入磁盘的文档。 问题1:-maxTime和maxDocs是否可以一起提供,或者它们是相互排斥的 自动提交有一个名为openNewSearcher的子文件。 书中说openNewSearcher如果在每次
我想知道是否有可能从非谷歌App Engine服务器上使用API搜索存储在谷歌云存储中的文件。