MetaException (сообщение: java.lang.IllegalArgumentException: java.net.UnknownHostException) при выполнении запроса sql в pyspark

1

Я запускаю pyspark на докере. Я могу выполнять базовую работу с pyspark. Но когда я пытаюсь выполнить sql-запросы, я получаю следующее исключение

[IN] from pyspark.sql import SQLContext, HiveContext
     sqlContext = HiveContext(sc)
     rdd = sqlContext.parquetFile("/2014122x.parquet")
     rdd.count()
[OUT] 53855299L

Но когда я выполняю следующий запрос, я получаю следующие ошибки:

[IN] rdd.registerAsTable("tweets")
     sqlContext.sql("drop table if exists tweets_filtered")
     %time sqlContext.sql("create table tweets_filtered as "\
            +" select floor(cast(timestamp_ms as decimal)/(900*1000)) as ts, source"\
            +", user.geo_enabled, user.followers_count, user.friends_count, user.id"\
            +", user.lang, user.location, user.verified"\
            +" from tweets a where timestamp_ms is not null")
sqlContext.cacheTable("tweets_filtered")

    Py4JJavaError: An error occurred while calling o18.sql.
: org.apache.spark.sql.execution.QueryExecutionException: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. MetaException(message:java.lang.IllegalArgumentException: java.net.UnknownHostException: 3f8c07a0e645)
    at org.apache.spark.sql.hive.HiveContext.runHive(HiveContext.scala:309)
    at org.apache.spark.sql.hive.HiveContext.runSqlHive(HiveContext.scala:276)
    at org.apache.spark.sql.hive.execution.DropTable.sideEffectResult$lzycompute(commands.scala:58)
    at org.apache.spark.sql.hive.execution.DropTable.sideEffectResult(commands.scala:56)
    at org.apache.spark.sql.execution.Command$class.execute(commands.scala:46)
    at org.apache.spark.sql.hive.execution.DropTable.execute(commands.scala:51)
    at org.apache.spark.sql.SQLContext$QueryExecution.toRdd$lzycompute(SQLContext.scala:425)
    at org.apache.spark.sql.SQLContext$QueryExecution.toRdd(SQLContext.scala:425)
    at org.apache.spark.sql.SchemaRDDLike$class.$init$(SchemaRDDLike.scala:58)
    at org.apache.spark.sql.SchemaRDD.<init>(SchemaRDD.scala:108)
    at org.apache.spark.sql.hive.HiveContext.sql(HiveContext.scala:94)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:606)
    at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:231)
    at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:379)
    at py4j.Gateway.invoke(Gateway.java:259)
    at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:133)
    at py4j.commands.CallCommand.execute(CallCommand.java:79)
    at py4j.GatewayConnection.run(GatewayConnection.java:207)
    at java.lang.Thread.run(Thread.java:744)

Кто-нибудь может помочь решить эту проблему?

Теги:
apache-spark
apache-spark-sql
hive
pyspark

1 ответ

0

Если вы недавно обновили докер (или, возможно, перенесли с boot2docker на докер-машину), возможно, что ваш metastore_db в вашем рабочем каталоге настроен с использованием старого docker vm hostname (3f8c07a0e645?)

Чтобы исправить эту проблему на моем докере, я полностью удалил metastore_db, воссоздал его, и когда я снова попробовал свои команды, все прошло гладко. Возможно, есть лучший способ справиться с этим.

Ещё вопросы

Сообщество Overcoder
Наверх
Меню