scala — أسئلة مع إجابات

2 الاجابة
من خلال إطار lightbend Lagom ، أحاول الاتصال بـ apiocket webi من Binance. ومع ذلك ، ما زلت أتلقى الخطأ التالي عند الاتصال: 400 The plain HTTP request was sent to HTTPS port هل من الممكن من Lagom الاتصال بخدمة Websocket آمنة؟ إذن مع WebSocketClient؟ لدي الكود التالي: trait BinanceStreamingServi...
websocket
lagom
30.07.2018, 10:48
1 إجابة
اجتياز وتعديل الرسم البياني الحلقية الموجهة غير المتجانسة في سكالا صباح الخير جميعا. لدي بنية بيانات الرسم البياني الحلقية الموجهة التالية ، المنفذة في سكالا على النحو التالي: abstract class Node // Generic abstract node /** Various kind of leaf nodes */ case class LeafNodeA(x: String) extends N...
software-design
data-structures
recursion
directed-acyclic-graphs
30.07.2018, 10:48
1 إجابة
لقد اتبعت مخطط جدول كاساندرا: - CREATE TABLE test ( id text, stats frozen<map<text, text>> ) لقد قمت بإنشاء تطبيق scala لاستخراج البيانات من كاساندرا وبعد بعض التلاعب سيتم تحديث البيانات مرة أخرى إلى كاساندرا. val result = session.execute("Select * from test where id= 'testid'") val r...
cassandra
cassandra-3.0
30.07.2018, 10:40
1 إجابة
يستدعي رمز سكالا الخاص بي (تنفيذ deserializer جاكسون) وظيفة Java التي دائمًا ما يتم رميها ( DeserializationContext.handleUnexpectedToken ). إذا كانت هذه دالة Scala ، فسيكون نوع الإرجاع Nothing وسيقوم المترجم بإدراك الكود بعد أن يتعذر الوصول إليه. أستخدم حاليا ??? بعد استدعاء الوظيفة لتمييز هذا ، يم...
exception
30.07.2018, 10:13
1 إجابة
هذا السؤال لديه بالفعل إجابة هنا: لماذا لا يبدأ كسوف الأكسجين (لأول مرة)؟ [مكرر] 3 إجابات لقد قمت بتثبيت سكالا كسوف على ماك ولكن عندما حاولت البدء لا يفتح. الآن حتى الكسوف أيضا لا يفتح. ثم لدي فحص ملف السجل لهذا وتتبع المكدس من ملف السجل: !SESSION 2018-07-30 13:20:28.430 -------------------------...
30.07.2018, 08:14
1 إجابة
آسف إذا كان العنوان غير واضح للغاية ، لكني لا أعرف كيف أشرح ذلك. أنا مبتدئ سكالا وأكافح من أجل إيجاد حل لمشكلتي. إليك المقتطف: sealed trait Base[T, M] { var value: Option[T] = None def initialize(v: T): this.type = { value = Some(v) this } def combine[K <: M](other: K): M } cl...
design-patterns
types
30.07.2018, 07:28
2 الاجابة
لقد أنشأت مصفوفة باستخدام SparkContext باستخدام قسمين ، أحاول أيضًا استخدامه mapPartition للتعامل مع العناصر ، ولكني حصلت على خطأ غريب جدًا ، عندما أكود على هذا النحو: val masterURL = "local[*]" val conf = new SparkConf().setAppName("KMeans Test").setMaster(masterURL) val sc = new SparkContext(con...
apache-spark
rdd
30.07.2018, 06:50
2 الاجابة
هل هناك أي بيثون مكافئ لفئة حالة سكالا؟ مثل إنشاء المصانع تلقائيًا التي يتم تعيينها للحقول دون كتابة لوحة مرجعية.
14.07.2018, 18:19
1 إجابة
هذا السؤال لديه بالفعل إجابة هنا: لماذا يفشل التنسيق ("kafka") مع "فشل في العثور على مصدر البيانات: kafka." (حتى مع أوبر جار)؟ 2 إجابات أحاول استخدام سبارك 2.3.1 الجري المنظم مع كافكا. الحصول على الخطأ التالي: java.lang.ClassNotFoundException: Failed to find data source: kafka...
apache-spark
apache-kafka
spark-streaming
14.07.2018, 14:09
1 إجابة
أحاول قراءة ملف .txt مع | المحددات باعتبارها RDD ومحاولة العودة Map[(String, String),(Double, Double)] ، ولكني أواجه CastException java.lang.ClassCastException: java.lang.String cannot be cast to java.lang.Double بيانات الإدخال تبدو مثل هذا string1|string2|100.00|200.00 string1|string2|34.98|0.989...
apache-spark
19.06.2018, 16:22
2 الاجابة
كنت أحاول الحصول على 0.8 بالمائة من عمود بيانات واحد. حاولت بهذه الطريقة: val limit80 = 0.8 val dfSize = df.count() val perfentileIndex = dfSize*limit80 dfSorted = df.sort() val percentile80 = dfSorted .take(perfentileIndex).last() لكني أعتقد أن هذا سيفشل بالنسبة إلى إطارات البيانات الكبيرة ، حي...
apache-spark
19.06.2018, 16:12
1 إجابة
مع تطبيق التدفق البسيط التالي: object Streaming { def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setAppName("Simple Application").setMaster("local[*]") val streamingContext = new StreamingContext(sparkConf, Seconds(10)) val lines = streamingContext.socketText...
apache-spark
spark-streaming
19.06.2018, 14:26
1 إجابة
أريد التكرار من خلال جميع عناصر ملف csv ولكل عنصر أريد توزيع الطلب الموحد بحيث يتم استدعاء جميع وظائف SearchProduct (SearchProduct1 و SearchProduct2 و SearchProduct3) في نفس الوقت. val products= csv("products.csv").records val start= exec(repeat(products.size, "n"){ feed(products.q...
csv
gatling
19.06.2018, 13:25
1 إجابة
مشكلة شائعة في رمز Scala لدينا هي أن المكالمة التي ترجع Future[T] لن ننتظر (نستخدم عادةً مكتبة scala-async لأن الكثير منا على دراية بـ async / ينتظر من C #) أو يستخدم على الإطلاق ؛ يتم التخلص منه ببساطة. هل هناك أي طريقة للحصول على تحذير أم أن هناك أداة لتحليل الكود تابعة لجهة خارجية ستلتقط هذا؟ م...
future
futuretask
code-analysis
static-code-analysis
19.06.2018, 12:53
فوق
قائمة طعام