更多>>关于我们

西安鲲之鹏网络信息技术有限公司从2010年开始专注于Web(网站)数据抓取领域。致力于为广大中国客户提供准确、快捷的数据采集相关服务。我们采用分布式系统架构,日采集网页数千万。我们拥有海量稳定高匿HTTP代理IP地址池,可以有效获取互联网任何公开可见信息。

您只需告诉我们您想抓取的网站是什么,您感兴趣的字段有哪些,你需要的数据是哪种格式,我们将为您做所有的工作,最后把数据(或程序)交付给你。

数据的格式可以是CSV、JSON、XML、ACCESS、SQLITE、MSSQL、MYSQL等等。

更多>>官方微博

西安鲲之鹏
陕西 西安

加关注

  • 【经验分享】如何让安卓设备(非模拟器)开机自动开启“网络ADB调试”(或叫做ADB over network/ADB over WIFI)?

    前面曾介绍过对于Bliss OS X86系统,可以通过修改/etc/init.sh文件,加入如下命令实现:
    setprop service.adb.tcp.port 5555
    stop adbd
    start adbd
    原理是adbd服务在启动的时候会先检查系统是否设置了service.adb.tcp.port属性,如果设置了就开启“网络ADB调试”。详见这篇文章:http://ytydyd.blog.sohu.com/146260552.html

    但对于真机设备的ROM,如何实现在开机的时候执行上述命令呢?

    以下方法均无效。
    (1)没有类似Bliss OS的/etc/init.sh文件。
    (2)stackoverflow上有人说可以通过在/etc/init.d/目录添加可执行脚本,试了也无效。
    (3)也有人说可以通过添加/data/local/userinit.sh脚本来实现(详见https://android.stackexchange.com/questions/6558/how-can-i-run-a-script-on-boot),试了也无效。

    最后在XDA论坛上看到一个叫做“Boot Shell”的App解决了问题。它能实现在设备系统启动之后执行事先添加好的命令或指定的脚本。
    (1)“Boot Shell”的详细介绍和下载地址见http://t.cn/A6LoSJdb,确保你的设备已经ROOT,否则无法使用。
    (2)安装后启动软件,点击左侧菜单“Add command”,输入一个名称,然后在Command栏填入要执行的命令:“setprop service.adb.tcp.port 5555;stop adbd;start adbd”。如图1所示。
    (3)重启设备,Boot Shell首次自启动,会提示ROOT授权,允许即可。
    试下"adb connect 手机ip:5555",不出意外的话就能直接连接了。
    需要注意的是,开发者选项里“网络ADB调试”此时状态可能依旧是未开启(如图2所示),但实际上我们已经通过后台命令启动了。
    发布时间:2020-06-20 16:46:38
  • 【经验分享】Ubuntu 下 Squid 基于 MySQL的用户认证配置步骤

    进行如下操作之前,确保已经正确安装和配置好了Squid和MySQL。
    (1)安装Perl的MySQL操作库libdbd-mysql-perl,后面Squid的认证脚本basic_db_auth中将会用到。
    sudo apt-get install libdbd-mysql-perl

    (2)在MySQL中创建Squid用户认证表,例如:
    CREATE TABLE `passwd` (
      `user` varchar(32) NOT NULL default '',
      `password` varchar(35) NOT NULL default '',
      `enabled` tinyint(1) NOT NULL default '1',
      `fullname` varchar(60) default NULL,
      `comment` varchar(60) default NULL,
      PRIMARY KEY  (`user`)
    );
    说明:Squid的代理认证协议是HTTP Basic Proxy Authentication。
      这里的`user` 为代理认证使用的用户名,  `password`为对应的密码, `enabled` 为1的账户才会被认为可用。

    (3)编辑/etc/squid/squid.conf,在http_access deny all之前加入:
    auth_param basic program /usr/lib/squid/basic_db_auth --dsn "DBI:mysql:host=MYSQL数据库IP;port=3306;database=MYSQL数据库名" --table passwd  --user MYSQL用户名 --password MYSQL密码 --plaintext --persist
    # 设置用户名和密码的缓存时间,减少数据库查询
    auth_param basic credentialsttl 2 hours

    保存并重启Squid。

    (4)配置完毕。通过对passwd表的增改删操作,就能实现对Squid代理用户的权限控制。

    参考:https://wiki.squid-cache.org/ConfigExamples/Authenticate/Mysql
    发布时间:2020-06-20 15:15:37
  • 【经验分享】接上篇“毒(得物)APP数据采集”。上篇提到了这个APP对HTTP请求做了"手脚"无法直接抓到包。这里分析一下,它到底做的什么"手脚",以及怎么绕过。

    1. 在com.shizhuang.duapp.common.helper.net.RestClient类中可要找到如下代码:
    writeTimeout.proxy(Proxy.NO_PROXY);(详见图1)
    这里 writeTimeout是一个OkHttpClient实例,OkHttpClient.proxy(Proxy.NO_PROXY),意思就是不使用(绕过)系统代理。
    绕过这个的方法有两个:
    (1) 让DuConfig.f277505a的值为true,这样就能避免执行“writeTimeout.proxy(Proxy.NO_PROXY);”,从而使用系统代理。
    而DuConfig.f277505a = applicationInfo.metaData.getBoolean("debug");(详见图2)
    因此我们可以通过Hook Bundle.getBoolean()让其返回true,另外一个思路是HookOkHttpClient.proxy,让其失效。
    (2)使用Proxifier让安卓模拟器进程的流量(例如夜神的NoxVMHandle.exe)强制转发给Fiddler。这种方法比较通用。

    2. 另外APP里还加了证书固定机制,通过代理后会报网络异常。
    通过如下代码可以绕过:
    var OkHostnameVerifier = Java.use('okhttp3.internal.tls.OkHostnameVerifier');
            OkHostnameVerifier.verify.overload('java.lang.String', 'java.security.cert.X509Certificate').implementation = function(arg1, arg2){
               console.log("OkHostnameVerifier.verify('java.lang.String', 'java.security.cert.X509Certificate') called.");
               console.log(arg1);
               console.log(arg2);
               return true;    
            }
            
            OkHostnameVerifier.verify.overload('java.lang.String', 'javax.net.ssl.SSLSession').implementation = function(arg1, arg2){
                console.log("OkHostnameVerifier.verify('java.lang.String', 'javax.net.ssl.SSLSession') called.");
                console.log(arg1);
                console.log(arg2);
                return true;    
             }
             
             var CertificatePinner = Java.use('okhttp3.CertificatePinner');
             CertificatePinner.check.overload('java.lang.String', 'java.util.List').implementation = function (arg1, arg2) {
                 console.log('CertificatePinner.check() called. ');
                 console.log(arg1);
                 console.log(arg2);
             }
        
        var OpenSSLSocketImpl = Java.use('com.android.org.conscrypt.OpenSSLSocketImpl');
             OpenSSLSocketImpl.verifyCertificateChain.implementation = function (arg1, arg2) {
                 console.log('OpenSSLSocketImpl.verifyCertificateChain() called.');
                 console.log(arg1);
                 console.log(arg2);
            }
    PS:上述代码和之前我们发的“58同城APP证书固定机制绕过(ssl unpinning)方法”中的一样。

    经过上述两步之后,就能顺利抓到HTTP(s)流量,如图3所示。
    发布时间:2020-06-18 09:45:05
  • 【经验分享】毒(得物)APP签名算法解决

    (1)HTTP请求做了"手脚"无法直接抓到包。
    (2)分析代码后发现可以通过HOOK "com.shizhuang.duapp.common.helper.net.interceptor.HttpRequestInterceptor.intercept()"调用或者"okhttp3.internal.http.RealInterceptorChain.proceed()"调用拿到HTTP请求和应答数据(如图1所示)。
    (3)分析发现不关是GET请求,还是POST请求,都有一个签名参数newSign。签名算法位于com.shizhuang.duapp.common.utils.RequestUtils中,签名算法原理是对QueryString或Request Body中的参数以及一些特定的Headers排序后进行加密(具体加密算法是在native层实现的,位于libJNIEncrypt.so中),然后对加密结果进行MD5计算(如图2)。
    (4)分析出来原理后,思路就清晰了:自己构造HTTP请求,通过HOOK + RPC形式直接调用RequestUtils中的签名算法,产生有效的签名值,这样就能直接拿到接口返回的数据。如图3、4所示为最终采集到的数据。
    发布时间:2020-06-14 19:04:23
  • 【经验分享】58同城APP证书固定机制绕过(ssl unpinning)方法

    1. 直接抓包,APP提示网络错误(图1),logcat显示有okhtt3 connectTls相关函数异常(图2)。

    2.反编译APK,根据异常提示定位到证书锁定相关代码。

    3. 使用Frida Hook绕过相关证书验证代码。具体frida脚本如下:

    Java.perform(function() {
        
        console.log("##### com.wuba SSL UNPINNING #####");
        var OkHostnameVerifier = Java.use('okhttp3.internal.tls.OkHostnameVerifier');
        OkHostnameVerifier.verify.overload('java.lang.String', 'java.security.cert.X509Certificate').implementation = function(arg1, arg2){
           console.log("OkHostnameVerifier.verify('java.lang.String', 'java.security.cert.X509Certificate') called.");
           console.log(arg1);
           console.log(arg2);
           return true;    
        }
        
        OkHostnameVerifier.verify.overload('java.lang.String', 'javax.net.ssl.SSLSession').implementation = function(arg1, arg2){
            console.log("OkHostnameVerifier.verify('java.lang.String', 'javax.net.ssl.SSLSession') called.");
            console.log(arg1);
            console.log(arg2);
            return true;    
         }
         
         var CertificatePinner = Java.use('okhttp3.CertificatePinner');
         CertificatePinner.check.overload('java.lang.String', 'java.util.List').implementation = function (arg1, arg2) {
             console.log('CertificatePinner.check() called. ');
             console.log(arg1);
             console.log(arg2);
         }

    var OpenSSLSocketImpl = Java.use('com.android.org.conscrypt.OpenSSLSocketImpl');
         OpenSSLSocketImpl.verifyCertificateChain.implementation = function (arg1, arg2) {
             console.log('OpenSSLSocketImpl.verifyCertificateChain() called.');
             console.log(arg1);
             console.log(arg2);
        }
    }};
    '''
    4. 成功抓到相关HTTPS数据包(图3)。
    发布时间:2020-06-04 10:20:59
  • 【经验分享】VMware Workstation开机免登录自启动设置方法
    近日某拨号服务器出现故障,不定期会自动重启。每次重启之后都要手动去启动VMware虚拟机,非常麻烦。如何实现开机自启动指定的VMware虚拟机呢?

    (1)通过"vmrun.exe start 虚拟机vmx文件路径"命令可以启动指定的虚拟机。
    如果有多个虚拟机可以创建一个如下批处理:
    "C:\Program Files (x86)\VMware\VMware Workstation\vmrun.exe" start "E:\鲲之鹏\ubuntu16.04-adsl-proxies-server-1\Ubuntu 64 位.vmx"
    "C:\Program Files (x86)\VMware\VMware Workstation\vmrun.exe" start "E:\鲲之鹏\ubuntu16.04-adsl-proxies-server-2\Ubuntu 64 位.vmx"
    "C:\Program Files (x86)\VMware\VMware Workstation\vmrun.exe" start "E:\鲲之鹏\ubuntu16.04-adsl-proxies-server-3\Ubuntu 64 位.vmx"
    ...

    (2)将上述批处理文件添加到开机启动计划任务里。
    * 触发器,新建触发器,开启任务选择“启动时"。
    * 常规选项卡,安全选项选择“不管用户是否登录都要运行”。这一步很重要。

    为什么不直接放到“启动文件夹”中,而要使用计划任务呢?
    因为放到启动文件夹中必须要用户登录之后才能被执行。这样就达不到免登录自启动的效果了。
    发布时间:2020-05-26 17:33:42
  • 【经验分享】Pandas日期范围查询
    目的:查询CSV中某列值大于某个日期的记录。

    (1)使用Pandas的to_datetime()方法,将列类型从object转为datetime64。
    df[u'合同签订日期'] = pd.to_datetime(df[u'合同签订日期'], format=u'%Y年%m月%d日')
    注意要设置format参数,指定原始数据的时间日期格式。转换完成后可以查看dtypes属性确认,如附图1所示。参考:https://stackoverflow.com/questions/36848514/how-to-define-format-when-use-pandas-to-datetime
    (2)查询日期大于2018年1月1日的记录。
    df[df[u'合同签订日期'] >= pd.Timestamp(2018, 1, 1)]
    结果如附图2所示,参考:https://stackoverflow.com/questions/36104500/pandas-filtering-and-comparing-dates
    发布时间:2020-05-11 09:38:32
  • 【经验分享】Python的hash()函数产生hash碰撞的概率有这么高吗?

    昨天同事"随手"给我发了两组他在项目中遇到的例子,很是受"惊吓",HashDict用了快10年了,竟然没注意到这个Bug。

    Python 2.7.8.10 on Windows 64

    例一:
    hash(u'赤峰_1513781081_http://t.cn/A6Al6TDu)
    901186270
    hash(u'北京_1010215433_http://t.cn/A6Al6TDn)
    901186270

    例二:
    hash('B033900G0Z')
    80468932
    hash('B021307H9T')
    80468932

    注意: Linux 64 下测试上述两组值并不相同,另外Linux下hash()产生的hash串长度要比Windows下长很多,产生hash碰撞的概率应该也会小很多。
    发布时间:2020-05-08 21:05:47
  • 【经验分享】"土地市场网-土地供应-出让公告"网页字体混淆反采集的解决

    (1)如附图1所示,下载的页面中有很多字符是乱码。左边是经过浏览器正确渲染的结果,右边是下载到的有乱码的数据。
    (2)经过分析发现,网站使用了自定义的字体文件:把常用的391个汉字做成了特殊字体,使用了自定义的unicode码。如附图2所示。这种字体混淆的反采集策略现在很常见了,之前曾在猫眼电影、汽车之家、58等网站都见到过。
    (3)经过深入分析发现,网站总共使用了10个自定义的字体文件(如图3所示),每个文件内的字符是一样的(都是那391个字符),但是相同的unicode码对应的字符是不一样的。如附图4所示,uni3075在3个字体文件中对应的字符分别是“悬”、“亲”和“田”。
    (4)突破这种策略的思路很简单,就是建立一个“unicode码->字符"的映射表,然后将HTML中的这些乱码(unicode码)替换成明文即可。但是本例中有10 * 391 = 3910个字符,工作量太大了。
    (5)于是想到一个“偷懒”的方法:由于每个文件内都是那391个字符,我只手动建立一个映射表,其余的通过图片匹配自动建立。
    我把这个脚本放到了gist上“将字体文件内各字体导出图片存储,并建立一个Excel索引”(http://t.cn/A6wxdZxl)。
    如附图5所示,是上述脚本输出的每个字符对应的图片。
    如附图6所示,这个Excel文件也是上述脚本生成的,然后人工填入每个图片对应的明文字符,这样就建立好了一个字体文件的字符映射表。把这个表当做特征库表。
    (6)将其他9个字体文件中的图片也使用上述脚本导出,然后挨个和特征库对比(这里我直接通过像素值二维数组进行对比,将一致率最高的视为匹配),建立匹配关系,如图7所示。
    最终生成其它10张字符映射表,如附图8所示。
    (7)有了这10张完备的字体映射表,还原明文就so easy了,最终还原后的提取结果如附图9所示。
    发布时间:2020-04-15 10:53:11
  • 【经验分享】我查查APP防护机制分析

    1. 最明显的是URL加密了,如附图1所示。
    反编译后分析源码可知,URL加密过程如附图2所示。
    主要通过WccBarcode.getInstance().enReq(bytes, bytes.length)实现。

    2.  enReq()是一个native方法,具体实现在libgcbarcode_k.so中,如附图3所示。
    例如,原始URL:
    /ggstudy/price?city_id=1&pkid=46893149&token=eff213b02959eae34935f83ff1216a27&mac=6C%3A62%3A6D%3A27%3A4E%3A42&his=1586159685.1586183377&newudid=73288dee8365b5a2e088c6d91c4c95ad&ptoken=a94e255b4c4d444a9c66a324160bb63b&noscan=1&connectnet=wifi&lng=105.56721418292932&os=Android&v=9.3.0&originprice=4&device_model=HUAWEI+MLA-AL10&device_brand=HUAWEI&udid=863064017108624&lat=33.99952368518388
    经过加密后变成:
    /zzE06D4C3D909AE1E6261070A7B491241430713222ECA16B97C2005E0CB490484AB8713F03F811CB0A04522B2BAC2126961E31190DA820061096034A0BDC410713BC623924CC90A3C69A01182D1890......

    3. 上面有一个ptoken要特别注意,这其实是一个签名参数,具体的实现过程在com.wochacha.datacenter.es.d()方法中,如附图4所示。
    思路是先将querystring的key按从大到小排序,然后拼接成一个串,计算MD5后,再前后拼接上一个常量串(加盐),再次计算MD5。

    4. 另外,根据输入条码查询商品时,输入的barcode也被做了特殊处理。如图5所示。这里也调用了libgcbarcode_k.so中的native方法,conv()。

    了解上述过程后,我们就能自己过程出有效的HTTP请求,拿到数据。对于so中的算法,直接还原有难度,可以通过Frida RPC间接调用。最终效果如附图6所示。
    发布时间:2020-04-07 11:49:57
当前位置: 首页 > 技术文章 >
基于arcpy实现导出区域内网格中心坐标功能
发布时间:2020-10-12

    在进行数据采集的时候经常会用到基于“周边检索”结果的采集:就是利用平台(网站或APP)提供的"附近"检索功能,搜索"某个位置"周边“X千米”范围内的某类信息(例如POI),然后采集搜索出来的结果。这里的“某个位置”就是搜索圆形区域的圆心(搜索中心点),“X千米”指的是搜索半径。

    这个搜索中心点的选取至关重要。因为如果选的少了会因为区域覆盖不全导致数据遗漏,选的太多(密)了,会增加搜索次数,影响采集效率。所以如何合理的选择搜索中心点很重要。例如,我们在采集"北京市房山区"内POI信息的时候就曾遇到过这样的问题。刚开始我们使用了"行政区、商圈、加油站"这三类信息点的位置作为搜索中心点,采集下来发现有不少遗漏。仔细检查后发现,原因是由于房山区相对比较偏远,这三类信息点比较少,搜索中心点比较少导致有很多地区覆盖不到,从而造成数据缺失。

    一种合理的搜索中心点选取方法:将待采集区域划分成面积想等的若干网格,每个网格的面积由搜索半径确定,然后取网格中心点的坐标作为搜索中心点,这样区域内每个地方都能被覆盖到。

    下面介绍基于arcpy实现上面的思路。arcpy是ArcGIS里包含的一个Python地理数据分析库。在安装完ArcGIS之后就能使用该库了。需要注意的是ArcGIS安装的时候会自带安装一个32位的Python,我们需要使用它自带的这个Python,否则(例如,使用自己安装的64位Python)会找不到arcpy库,或者出现因为和64位版本Python不兼容导致的异常问题。

    第一步,获取待采集行政区的边界坐标。关于行政区的边界坐标获取方法,网上介绍有各种途径,这里推荐一种最简单的方法,使用阿里云datav里的工具,链接是http://datav.aliyun.com/tools/atlas/

    第二步,根据待采集区域的边界坐标,画出该区域范围(多边形)。如下图所示是使用arcpy根据"北京房山区"的边界坐标,绘制出的多边形区域。

北京市房山区的边界

    第三步,根据待采集区域边界上极限(最大最小)坐标,计算出每个网格(正方形)的顶点坐标,画出网格(渔网图)。这里的网格大小根据搜索半径确定,如果搜索半径为2KM,这里网格边长就选用2KM(近似等于0.009 * 2 经度)大小。如下图所示是在“房山区”上画出的网格后的效果。

北京市房山区加网格后效果

第四步,遍历每个网格,判断网格和待采集区域是否相交,如果相交,计算并导出网格中心点的坐标。如下图所示是绘制出相交网格中心点坐标后的效果。

北京市房山区加网格和网格中心点后效果

"北京市房山区"共被拆分为738个"2KM*2KM"的网格,最后导出的网格中心点坐标列表如下所示。

北京市房山区的网格中心点坐标列表截图

上述过程的完整代码如下:

# coding: utf-8
# create_boundary_fishnet_coords.py
# 导出行政区边界内渔网格中心点坐标


import sys
import os
import math
import arcpy


# 网格大小, 经度0.009度相当于1公里
GRID_WIDTH = 0.009 * 2


def create(input_boundary_file):

    # 输出目录
    output_dir = os.path.splitext(os.path.basename(input_boundary_file))[0] + '-output'
    output_dir = os.path.splitext(os.path.basename(input_boundary_file))[0] + '-output'
    if not os.path.exists(output_dir):
        os.mkdir(output_dir)
    
    # 加载边界原始数据
    bounday_file_data = ''
    with open(input_boundary_file, 'rb') as f:
        bounday_file_data = f.read()
    
    # 根据边界点创建行政区多边形面
    bounday_array = arcpy.Array()
    xmin, ymin, xmax, ymax = None, None, None, None
    is_first = True
    for xy in bounday_file_data.split(';'):
        x, _, y = xy.partition(',')
        x = float(x.strip())
        y = float(y.strip())
        if is_first:
            xmin = xmax = x
            ymin = ymax = y
            is_first = False
        else:
            if x > xmax:
                xmax = x
            if x < xmin:
                xmin = x
            if y > ymax:
                ymax = y
            if y < ymin:
                ymin = y
        bounday_array.add(arcpy.Point(x, y))
    # https://pro.arcgis.com/zh-cn/pro-app/arcpy/classes/polygon.htm
    bounday_polygon = arcpy.Polygon(bounday_array)
    # 导出边界多边形的shp文件,用gis软件(e.g. OpenJUMP)查看
    shp_file = '{}/boundary.shp'.format(output_dir)
    arcpy.CopyFeatures_management(bounday_polygon, shp_file)
    print 'Shapefile "{}" is ready.'.format(shp_file)
    
    # 画出渔网图
    # 根据边界坐标经纬度最大和最小值,依次计算出每个网格正方形四个顶点的坐标
    # 计算网格的行列数
    grid_rows_num = int(math.ceil((ymax - ymin)/float(GRID_WIDTH)))
    grid_columns_num = int(math.ceil((xmax - xmin)/float(GRID_WIDTH)))
    # 依次计算各网格(0, 0), (0, 1), (0, 2) ... (grid_rows_num - 1, grid_columns_num-1)四个顶点的坐标
    grids = []
    for r in range(grid_rows_num):
        for c in range(grid_columns_num):
            grid_4coords = arcpy.Array()
            # 左上角坐标
            x_lt = xmin + c * GRID_WIDTH
            y_lt = ymax - r * GRID_WIDTH
            # 右上角坐标
            x_rt = x_lt + GRID_WIDTH
            y_rt = y_lt
            # 左下角坐标
            x_lb = x_lt
            y_lb = y_lt - GRID_WIDTH
            # 右下角坐标
            x_rb = x_rt
            y_rb = y_lb
            #按"左上->右上->右下->左下->左上"顺序画一个封闭四边形,注意顺序不能乱,否则画出来的图形不对(我第一次的时候就画成两个对三角了)
            grid_4coords.add(arcpy.Point(x_lt, y_lt))
            grid_4coords.add(arcpy.Point(x_rt, y_rt))
            grid_4coords.add(arcpy.Point(x_rb, y_rb))
            grid_4coords.add(arcpy.Point(x_lb, y_lb))
            grid_4coords.add(arcpy.Point(x_lt, y_lt))
            # 创建一个网格(四边形)
            grids.append(arcpy.Polygon(grid_4coords))
    # 导出网格的shp文件
    shp_file = '{}/grids.shp'.format(output_dir)
    arcpy.CopyFeatures_management(grids, shp_file)
    print 'Shapefile "{}" is ready.'.format(shp_file)
    
    # 对比每个"网格四边形"和"区域多边形",找到两者"相交"的网格,导出对应的网格中心点坐标
    # 如果 disjoint 返回 False,则两个几何相交,详见 https://pro.arcgis.com/zh-cn/pro-app/arcpy/classes/polygon.htm
    center_points = []
    for grid in grids:
        if bounday_polygon.disjoint(grid) == False:
            # 网格左上角表座
            grid_x_lt = grid.getPart(0)[0].X
            grid_y_lt = grid.getPart(0)[0].Y
            # 计算出网格中心点坐标
            grid_x_center = grid_x_lt + 0.5 * GRID_WIDTH
            grid_y_center = grid_y_lt - 0.5 * GRID_WIDTH
            print (grid_x_center, grid_y_center)
            center_points.append((grid_x_center, grid_y_center))
    # 导出中心点的shp文件
    shp_file = '{}/center_points.shp'.format(output_dir)
    # 导出中心点坐标到csv文件
    csv_file = '{}/center_points.csv'.format(output_dir)
    writer = open(csv_file, 'wb')
    writer.write('"longitude","latitude"\n')
    center_points_geo = []
    for p in center_points:
        center_points_geo.append(arcpy.PointGeometry(arcpy.Point(p[0], p[1])))
        writer.write('"{}","{}"\n'.format(p[0], p[1]))
    writer.close()
    print 'CSV file "{}" for center points is ready.'.format(csv_file)
    # 参考 https://gis.stackexchange.com/questions/16122/creating-shapefile-from-lat-long-values-using-arcpy
    arcpy.CopyFeatures_management(center_points_geo, shp_file)
    print 'Shapefile "{}" is ready.'.format(shp_file)


            
if __name__ == '__main__':
    create('boundary_data/beijing_fangshan_boundary.txt')

附"北京市房山区”的边界坐标(BD09)数据:北京市房山区边界坐标数据下载

特别说明:本文旨在技术交流,请勿将涉及的技术用于非法用途,否则一切后果自负。如果您觉得我们侵犯了您的合法权益,请联系我们予以处理。
☹ Disqus被Qiang了,之前所有的评论内容都看不到了。如果您有爬虫相关技术方面的问题,欢迎发到我们的问答平台:http://spider.site-digger.com/
QQ在线客服
欢迎咨询,点击这里给我发送消息。
欢迎咨询,点击这里给我发送消息。

加微信咨询